JP2012174218A - Image composition method - Google Patents
Image composition method Download PDFInfo
- Publication number
- JP2012174218A JP2012174218A JP2011038747A JP2011038747A JP2012174218A JP 2012174218 A JP2012174218 A JP 2012174218A JP 2011038747 A JP2011038747 A JP 2011038747A JP 2011038747 A JP2011038747 A JP 2011038747A JP 2012174218 A JP2012174218 A JP 2012174218A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- real
- virtual
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮影した実画像と生成した仮想画像とを合成する画像合成方法に関する。 The present invention relates to an image composition method for compositing a captured real image and a generated virtual image.
撮影した実画像と生成した仮想画像とを合成する画像合成方法としては、例えば、撮影した撮影画像に含まれる特定の被写体に応じた付加画像を、特定の被写体に応じて予め定められた、撮影画像上の位置に配置して合成画像を生成する画像合成方法が知られている(例えば、特許文献1参照)。このような合成画像は、付加画像を撮影画像の予め定められた位置に配置して合成するので、撮影画像と付加画像とが重なる部位では、付加画像が最前面に配置されて撮影画像は付加画像により隠されるように合成される。 As an image composition method for synthesizing the captured real image and the generated virtual image, for example, an additional image corresponding to a specific subject included in the captured captured image is obtained in advance by capturing the additional image corresponding to the specific subject. An image composition method for generating a composite image by arranging it at a position on the image is known (for example, see Patent Document 1). Such a composite image is synthesized by placing the additional image at a predetermined position of the captured image, and therefore, in a region where the captured image and the additional image overlap, the additional image is placed in the foreground and the captured image is added. It is synthesized so as to be hidden by the image.
上記従来の画像合成方法は、付加画像が最前面に配置されて撮影画像は付加画像により隠されるように合成されるので、たとえば、付加画像が窓枠であって、景色を撮影した撮影画像と窓枠の付加画像とを合成した際には、窓枠の外側に景色が現れてしまう。
また、撮影画像内に、奥行き方向に位置が異なる2つ以上の物体を有する場合に、撮影画像と、その2つの物体間に配置されるような付加画像とを合成したい場合であっても、付加画像の一部が撮影画像の一部により隠れるように画像を合成することができないという課題がある。
In the conventional image composition method, since the additional image is arranged in the foreground and the captured image is combined so as to be hidden by the additional image, for example, the additional image is a window frame, When the additional image of the window frame is combined, a landscape appears outside the window frame.
Further, in the case where the captured image has two or more objects whose positions are different in the depth direction, even when it is desired to synthesize the captured image and an additional image arranged between the two objects, There is a problem that an image cannot be synthesized so that a part of the additional image is hidden by a part of the captured image.
本発明は、かかる課題に鑑みてなされたものであり、その目的とするところは、撮影した実画像と生成した仮想画像とをより現実に即した画像に合成することが可能な画像合成方法を提供することにある。 The present invention has been made in view of such problems, and an object of the present invention is to provide an image composition method capable of compositing a captured real image and a generated virtual image into a more realistic image. It is to provide.
かかる目的を達成するために本発明の画像合成方法は、被写体を撮影する撮影工程と、撮影した実画像を構成する画像データを記憶する実画像記憶工程と、撮影により取得された情報に基づいて前記実画像と合成する仮想画像を特定する情報と、予め前記実画像の画像データを配置することが設定されている設定領域を特定する情報とを含む、前記実画像と前記仮想画像とを合成するための合成情報を取得する情報取得工程と、前記合成情報に基づいて前記実画像と前記仮想画像とを合成するときに、特定される前記設定領域に予め設定されている前記実画像の前記画像データを配置して合成画像を生成する画像合成工程と、を有することを特徴とする画像合成方法である。 In order to achieve such an object, an image composition method of the present invention is based on a photographing process for photographing a subject, a real image storing process for storing image data constituting a photographed real image, and information acquired by photographing. The real image and the virtual image including the information specifying the virtual image to be combined with the real image and the information specifying the setting area in which the image data of the real image is set in advance are combined An information acquisition step for acquiring composite information for performing, and when combining the real image and the virtual image based on the composite information, the real image set in advance in the specified setting area And an image composition step of generating image data by arranging image data.
このような画像合成方法によれば、被写体の撮影により取得された情報に基づいて、実画像と仮想画像とを合成することが可能であるとともに、設定領域には実画像を配置するので、単純に実画像と仮想画像とを合成するだけでなく、設定領域には、設定により実画像を配置して合成することが可能である。このため、より現実に即した合成画像を生成することが可能である。 According to such an image composition method, it is possible to synthesize a real image and a virtual image based on information acquired by photographing a subject and to arrange a real image in a setting area. In addition to synthesizing the real image and the virtual image, the real image can be arranged and synthesized in the setting area according to the setting. For this reason, it is possible to generate a composite image that is more realistic.
かかる画像合成方法であって、前記合成情報には、前記仮想画像に設定されている前記撮影の視点からの距離及び前設定領域に設定されている前記視点からの距離、を示す距離情報が含まれており、前記画像合成工程では、前記仮想画像の領域及び前記設定領域のうちの、前記距離情報として前記視点からの距離がより長く設定されている領域の画像データから順に、前記実画像の前記画像データが書き換えられていくことが望ましい。 In this image composition method, the composition information includes distance information indicating a distance from the viewpoint of shooting set in the virtual image and a distance from the viewpoint set in the previous setting area. In the image compositing step, of the real image in order from the image data of the region in which the distance from the viewpoint is set longer as the distance information among the region of the virtual image and the setting region. It is desirable that the image data is rewritten.
このような画像合成方法によれば、仮想画像の領域及び設定領域は、合成情報において視点からの距離がより長く設定されている領域から順に、撮影された実画像の画像データと書き換えられるので、視点からの距離が最も短いもの、すなわち視点により近くに位置するものが、合成画像上に現れる。このため、実画像と仮想画像とを、あたかも視点から見えるような状態に配置することが可能である。 According to such an image composition method, the virtual image area and the setting area are rewritten with the image data of the captured real image in order from the area where the distance from the viewpoint is set longer in the composition information. The one with the shortest distance from the viewpoint, that is, the one located closer to the viewpoint appears on the composite image. For this reason, it is possible to arrange the real image and the virtual image as if they are visible from the viewpoint.
かかる画像合成方法であって、撮影された前記実画像を構成する前記画像データは、2つの画像記憶領域に記憶され、前記画像合成工程では、前記合成情報に基づいて、前記2つの画像記憶領域のうちの一方の画像記憶領域を作業領域として、記憶された実画像の前記画像データを書き換えて合成画像を生成し、前記設定領域に前記実画像の前記画像データを配置する場合には、前記一方の画像記憶領域に記憶される前記実画像の前記画像データを、他方の前記画像記憶領域に記憶されている前記画像データに書き換えることが望ましい。 In this image composition method, the image data constituting the photographed real image is stored in two image storage areas, and in the image composition step, based on the combination information, the two image storage areas When one of the image storage areas is used as a work area, the image data of the stored real image is rewritten to generate a composite image, and when the image data of the real image is arranged in the setting area, It is desirable to rewrite the image data of the actual image stored in one image storage area with the image data stored in the other image storage area.
このような画像合成方法によれば、被写体の撮影により生成された実画像の画像データを2つの画像記憶領域に記憶し、2つの画像記憶領域のうちの一方の画像記憶領域を作業領域として、記憶された実画像の画像データを書き換えて合成画像を生成するので、一方の画像記憶領域にて実画像と仮想画像とを合成した合成画像の画像データを生成するとともに、他方の画像記憶領域に撮影にて生成された実画像の画像データを保持しておくことが可能である。そして、設定領域に実画像の画像データを配置する場合には、一方の画像記憶領域に記憶された実画像の画像データを、書き換えられずに保持されている他方の画像記憶領域に記憶されている実画像の画像データに書き換えるので、設定領域に撮影した実画像を確実に配置することが可能である。 According to such an image composition method, image data of a real image generated by photographing a subject is stored in two image storage areas, and one of the two image storage areas is used as a work area. Since the image data of the stored real image is rewritten to generate a composite image, image data of the composite image obtained by combining the real image and the virtual image is generated in one image storage area, and the other image storage area It is possible to hold image data of a real image generated by shooting. When the image data of the real image is arranged in the setting area, the image data of the real image stored in the one image storage area is stored in the other image storage area that is held without being rewritten. Therefore, it is possible to reliably arrange the photographed actual image in the setting area.
また、被写体を撮影する撮影工程、撮影した実画像を構成する画像データを記憶する実画像記憶工程、撮影により取得された情報に基づいて前記実画像と合成する仮想画像、及び、実画像に含まれる画像要素、を特定する情報と、前記実画像、前記仮想画像、前記画像要素の、前記撮影の視点からの距離を示す距離情報と、予め前記実画像の画像データを配置することが設定されている設定領域を特定する情報と、を含み、前記実画像と前記仮想画像とを合成するための合成情報を取得する情報取得工程、及び、前記合成情報に基づいて、前記実画像に前記仮想画像及び前記画像要素を合成して合成画像を生成する画像合成工程、を有し、前記画像合成工程は、前記合成情報に基づいて、撮影した前記実画像の画像データに、前記仮想画像の画像データ及び前記画像要素の画像データのうちの前記視点からの距離が短い方の画像データを書き込むとともに、前記視点からの距離が短い方が前記設定領域に設定されている場合には前記実画像の画像データを書き込むことを特徴とする画像合成方法である。 Also included in a photographing step for photographing a subject, a real image storing step for storing image data constituting the photographed real image, a virtual image to be combined with the real image based on information acquired by photographing, and a real image Information for identifying the image element to be imaged, distance information indicating the distance of the actual image, the virtual image, and the image element from the shooting viewpoint, and image data of the actual image are arranged in advance. An information acquisition step for acquiring composite information for combining the real image and the virtual image, and based on the composite information, the virtual image is included in the virtual image. An image synthesis step of synthesizing the image and the image element to generate a synthesized image, and the image synthesis step adds image data of the real image to the captured image data based on the synthesis information. Of the image data and the image data of the image element, the image data with the shorter distance from the viewpoint is written, and the actual image when the shorter distance from the viewpoint is set in the setting area The image composition method is characterized in that the image data is written.
このような画像合成方法によれば、撮影により取得された、合成情報に基づいて、撮影した実画像の画像データに、仮想画像及び画像要素のうちの視点からの距離が短い方の画像データを書き込むとともに、視点からの距離が短い方が設定領域に設定されている場合には実画像の画像データを書き込むので、単純に視点からの距離だけに基づいて実画像と仮想画像とが合成されるだけでなく、視点からの距離が短い領域が設定領域の場合には必ず実画像を前面に配置することが可能である。 According to such an image composition method, based on the composite information acquired by photographing, image data with a shorter distance from the viewpoint of the virtual image and the image element is added to the image data of the photographed real image. In addition to writing, if the shorter distance from the viewpoint is set in the setting area, the image data of the actual image is written, so the actual image and the virtual image are simply synthesized based only on the distance from the viewpoint. In addition, when the area having a short distance from the viewpoint is the setting area, it is possible to always place the actual image in the foreground.
また、合成画像を生成するための合成情報には、実画像と合成する仮想画像、及び、実画像に含まれる画像要素、を特定する情報、実画像、仮想画像、画像要素の、撮影の視点からの距離を示す距離情報、予め実画像の画像データを配置することが設定されている設定領域を特定する情報、が含まれているので、撮影時の状況に応じた情報を取得することができるとともに、合成情報を撮影により取得することが可能である。このため、より現実に即した合成画像を容易に生成することが可能である。 The composite information for generating the composite image includes information specifying the virtual image to be combined with the real image and the image elements included in the real image, the real image, the virtual image, and the photographing viewpoint of the image element. Distance information indicating the distance from the camera and information for specifying a setting area in which image data of the actual image is set in advance are included, so that information according to the situation at the time of shooting can be acquired. In addition, the composite information can be acquired by photographing. For this reason, it is possible to easily generate a composite image that is more realistic.
かかる画像合成方法であって、前記画像要素が、前記設定領域に設定されていることが望ましい。 In this image composition method, it is preferable that the image element is set in the setting area.
このような画像合成方法によれば、実画像に含まれる画像要素が設定領域に設定されているので、実画像に仮想画像を重ね合わせた後に、実画像を上書きしたい場合には、容易に実画像を前面に配置することが可能である。 According to such an image composition method, the image elements included in the actual image are set in the setting area. Therefore, when the actual image is to be overwritten after the virtual image is overlaid on the actual image, the actual image can be easily obtained. It is possible to place the image in front.
かかる画像合成方法であって、撮影された前記実画像を構成する前記画像データは、2つの画像記憶領域に記憶され、前記画像合成工程では、前記合成情報に基づいて、前記2つの画像記憶領域のうちの一方の画像記憶領域を作業領域として、記憶された実画像の前記画像データを書き換えて合成画像を生成し、前記設定領域に前記実画像の前記画像データを配置する場合には、前記一方の画像記憶領域に記憶される前記画像データを、他方の前記画像記憶領域に記憶されている前記画像データに書き換えることが望ましい。 In this image composition method, the image data constituting the photographed real image is stored in two image storage areas, and in the image composition step, based on the combination information, the two image storage areas When one of the image storage areas is used as a work area, the image data of the stored real image is rewritten to generate a composite image, and when the image data of the real image is arranged in the setting area, It is desirable to rewrite the image data stored in one image storage area to the image data stored in the other image storage area.
このような画像合成方法によれば、被写体の撮影により生成された実画像の画像データを2つの画像記憶領域に記憶し、2つの画像記憶領域のうちの一方の画像記憶領域を作業領域として、記憶された実画像の画像データを書き換えて合成画像を生成するので、一方の画像記憶領域にて実画像と仮想画像とを合成した合成画像の画像データを生成するとともに、他方の画像記憶領域に撮影にて生成された実画像の画像データを保持しておくことが可能である。そして、設定領域に実画像の画像データを配置する場合には、一方の画像記憶領域に記憶された実画像の画像データを、書き換えられずに保持されている他方の画像記憶領域に記憶されている実画像の画像データに書き換えるので、設定領域に撮影した実画像を確実に配置することが可能である。 According to such an image composition method, image data of a real image generated by photographing a subject is stored in two image storage areas, and one of the two image storage areas is used as a work area. Since the image data of the stored real image is rewritten to generate a composite image, image data of the composite image obtained by combining the real image and the virtual image is generated in one image storage area, and the other image storage area It is possible to hold image data of a real image generated by shooting. When the image data of the real image is arranged in the setting area, the image data of the real image stored in the one image storage area is stored in the other image storage area that is held without being rewritten. Therefore, it is possible to reliably arrange the photographed actual image in the setting area.
かかる画像合成方法であって、撮影された前記実画像を構成する前記画像データは、2つの画像記憶領域に記憶され、前記画像合成工程では、前記合成情報に基づいて、前記2つの画像記憶領域のうちの一方の画像記憶領域を作業領域として、記憶された実画像の前記画像データを書き換えて合成画像を生成し、前記設定領域に前記実画像の前記画像データを配置する場合には、前記一方の画像記憶領域に記憶される前記実画像の前記画像データを、他方の前記画像記憶領域に記憶されている前記画像データに書き換えることが望ましい。 In this image composition method, the image data constituting the photographed real image is stored in two image storage areas, and in the image composition step, based on the combination information, the two image storage areas When one of the image storage areas is used as a work area, the image data of the stored real image is rewritten to generate a composite image, and when the image data of the real image is arranged in the setting area, It is desirable to rewrite the image data of the actual image stored in one image storage area with the image data stored in the other image storage area.
このような画像合成方法によれば、被写体の撮影により生成された実画像の画像データを2つの画像記憶領域に記憶し、2つの画像記憶領域のうちの一方の画像記憶領域を作業領域として、記憶された実画像の画像データを書き換えて合成画像を生成するので、一方の画像記憶領域にて実画像と仮想画像とを合成した合成画像の画像データを生成するとともに、他方の画像記憶領域に撮影にて生成された実画像の画像データを保持しておくことが可能である。そして、設定領域に実画像の画像データを配置する場合には、一方の画像記憶領域に記憶された実画像の画像データを、書き換えられずに保持されている他方の画像記憶領域に記憶されている実画像の画像データに書き換えるので、設定領域に撮影した実画像を確実に配置することが可能である。 According to such an image composition method, image data of a real image generated by photographing a subject is stored in two image storage areas, and one of the two image storage areas is used as a work area. Since the image data of the stored real image is rewritten to generate a composite image, image data of the composite image obtained by combining the real image and the virtual image is generated in one image storage area, and the other image storage area It is possible to hold image data of a real image generated by shooting. When the image data of the real image is arranged in the setting area, the image data of the real image stored in the one image storage area is stored in the other image storage area that is held without being rewritten. Therefore, it is possible to reliably arrange the photographed actual image in the setting area.
かかる画像合成方法であって、前記合成画像、前記実画像、及び、前記仮想画像は、複数の画素にて形成されており、前記設定領域は、前記画素毎に設定されており、前記一方の画像記憶領域の各画素に対応させて、各画素の前記距離情報を記憶する距離情報記憶領域を有し、前記画像合成工程にて、前記一方の画像記憶領域に記憶された前記画像データが書き換えられた場合には、前記距離情報記憶領域の前記距離情報が、前記書き換えた前記画像データの前記距離情報に書き換えられることが望ましい。 In this image composition method, the composite image, the real image, and the virtual image are formed of a plurality of pixels, and the setting area is set for each of the pixels. A distance information storage area for storing the distance information of each pixel is provided corresponding to each pixel in the image storage area, and the image data stored in the one image storage area is rewritten in the image composition step. If it is, it is preferable that the distance information in the distance information storage area is rewritten to the distance information of the rewritten image data.
このような画像合成方法によれば、一方の画像記憶領域に記憶されている画像データの各画素に対応する距離情報が距離情報記憶領域に記憶されており、一方の画像記憶領域の画像データが書き換えられる毎に、書き換えた画像データの距離情報に距離情報記憶領域の距離情報が書き換えられるので、距離情報記憶領域に記憶されている距離情報を常に一方の画像記憶領域の画像データと対応させて最新の状態に更新しておくことが可能である。 According to such an image composition method, the distance information corresponding to each pixel of the image data stored in one image storage area is stored in the distance information storage area, and the image data in one image storage area is stored. Every time it is rewritten, the distance information in the distance information storage area is rewritten to the distance information of the rewritten image data. Therefore, the distance information stored in the distance information storage area is always associated with the image data in one image storage area. It is possible to update to the latest state.
かかる画像合成方法であって、前記一方の画像記憶領域に記憶された前記実画像の前記画像データを構成する各画素は、前記視点からの距離が無限遠に設定されていることが望ましい。 In this image composition method, it is preferable that each pixel constituting the image data of the real image stored in the one image storage area is set to have an infinite distance from the viewpoint.
このような画像合成装置によれば、一方の画像記憶領域に記憶された実画像の画像データを構成する各画素は、視点からの距離が無限遠に設定されているので、撮影された実画像上に、合成すべき仮想画像及び画像要素に対応づけられた画像を配置することが可能である。このため、撮影した実画像を元画像として画像データを書き換えつつ画像を合成することが可能である。 According to such an image composition device, each pixel constituting the image data of the actual image stored in the one image storage area is set to an infinite distance from the viewpoint, so the captured actual image It is possible to arrange a virtual image to be synthesized and an image associated with the image element. For this reason, it is possible to synthesize an image while rewriting image data using a captured real image as an original image.
かかる画像合成方法であって、前記画像合成工程では、前記画素毎に前記距離情報記憶領域の前記距離情報と、前記仮想画像に設定されている前記距離情報または前記設定領域に設定されている前記距離情報とを、比較することが望ましい。 In this image composition method, in the image composition step, the distance information in the distance information storage area and the distance information set in the virtual image or the setting area are set for each pixel. It is desirable to compare the distance information.
このような画像合成方法によれば、画像を合成する際には、画素毎に距離情報記憶領域の距離情報と、仮想画像に設定されている距離情報及び画像要素に設定されている距離情報とを比較するので、一方の画像記憶領域に対応して常に最新の状態に更新されている距離情報記憶領域の各画素の距離情報に対する、合成する仮想画像の距離情報及び設定領域の距離情報とが比較されて、画素ごとに、一方の画像記憶領域の画像データを、より正確に視点に近い側の画像データに書き換えることが可能である。このため、さらに現実に即した合成画像を生成することが可能である。 According to such an image composition method, when compositing an image, distance information in the distance information storage area for each pixel, distance information set in the virtual image, and distance information set in the image element, Therefore, the distance information of the virtual image to be combined and the distance information of the setting area with respect to the distance information of each pixel of the distance information storage area that is always updated to the latest state corresponding to one image storage area. As a result of comparison, for each pixel, the image data in one image storage area can be rewritten to image data closer to the viewpoint more accurately. For this reason, it is possible to generate a composite image that is more realistic.
本発明によれば、撮影した実画像と生成した仮想画像とをより現実に即した画像に合成することが可能である。 According to the present invention, it is possible to combine a captured real image and a generated virtual image into a more realistic image.
以下、本発明の一実施形態について図面を用いて詳細に説明する。
図1は、本発明に係る画像合成方法を実現するための装置の一例を示すブロック図である。
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing an example of an apparatus for realizing an image composition method according to the present invention.
本実施形態の画像合成方法は、たとえば、被写体の撮影により取得された情報に基づいて、撮影した実画像と予め形成されている仮想画像とを合成する際に、実画像と仮想画像とをより現実に即した合成画像を生成する方法である。 The image composition method according to the present embodiment, for example, combines a real image and a virtual image when combining a photographed real image and a pre-formed virtual image based on information acquired by photographing a subject. This is a method of generating a composite image that matches reality.
このような画像合成方法を実現するための画像合成装置1は、被写体を撮影する撮像部10と、撮影した被写体の実画像と予め形成されている仮想画像とを合成する処理を含み画像合成装置を制御する制御部12と、画像を合成するために必要な各種情報やデータが記憶される記憶部14と、合成された合成画像を表示する表示部16と、本画像合成装置1を操作するための操作部18と、を有している。 An image composition apparatus 1 for realizing such an image composition method includes an image capturing unit 10 that captures a subject, and a process that combines a real image of the captured subject and a virtual image that is formed in advance. The control unit 12 for controlling the image, the storage unit 14 for storing various information and data necessary for synthesizing the image, the display unit 16 for displaying the synthesized image, and the image synthesizing apparatus 1 And an operation unit 18 for this purpose.
本実施形態の画像合成装置1は、例えば、撮像部10と、撮影した画像を表示する表示部16とを有し持ち運び可能な、例えばデジタルカメラ、デジタルビデオカメラ、携帯電話、携帯情報端末(PDA)、モバイルコンピュータなどに、画像合成処理が実行可能なプログラムが記憶されている。 The image composition device 1 of the present embodiment has, for example, an imaging unit 10 and a display unit 16 that displays a captured image, and is portable, for example, a digital camera, a digital video camera, a mobile phone, a personal digital assistant (PDA). ), A program capable of executing image composition processing is stored in a mobile computer or the like.
そして、画像合成装置1の使用者が、被写体を撮影すると、表示部16に撮影された実画像が表示される。このとき、撮影された実画像20に、予め設定された、例えば、QRコード(登録商標)やバーコードなどの、所定の合成情報を示すマーカー21が含まれていたり、GPSやデジタルコンパスなどを使用して撮影位置(場所)や撮影方向等の情報が計測された場合には、当該マーカー21を検出及び解析して合成情報を取得したり、撮影位置や方向の情報に基づいて合成情報を取得し、取得した合成情報に基づいて、撮影した実画像20(図3)と予め記憶されている仮想画像22(図3)とを合成した合成画像24(図3)を生成し合成画像24(図3)が表示部16に表示されるように構成されている。 Then, when the user of the image composition device 1 photographs the subject, the captured actual image is displayed on the display unit 16. At this time, the photographed real image 20 includes a preset marker 21 indicating predetermined composite information such as a QR code (registered trademark) or a barcode, or a GPS or a digital compass. When information such as a shooting position (location) and a shooting direction is measured, the marker 21 is detected and analyzed to obtain combined information, or the combined information is acquired based on the shooting position and direction information. Based on the acquired composite information, a composite image 24 (FIG. 3) is generated by combining the captured real image 20 (FIG. 3) and the virtual image 22 (FIG. 3) stored in advance. (FIG. 3) is configured to be displayed on the display unit 16.
撮像部10は、例えば、デジタルカメラやデジタルビデオカメラのような、撮影により、画像を構成する複数の画素の各画像データを生成するCCDセンサーなどの撮像素子により、光情報を電気情報に変換し、変換した画像データに基づいて表示部16に画像を表示するように構成されている。 The imaging unit 10 converts optical information into electrical information by an imaging element such as a CCD sensor that generates image data of a plurality of pixels constituting an image by photographing, such as a digital camera or a digital video camera. The display unit 16 is configured to display an image based on the converted image data.
表示部16は、画像を構成する複数の画素の画像データを、各素子に対応させて表示することが可能な、例えば液晶パネルなどにて構成されている。ここで、各画素の画像データとは、例えば、各画素をR(レッド)成分、G(グリーン)成分、B(ブルー)成分に分解した各成分を示すデータである。 The display unit 16 is configured by, for example, a liquid crystal panel that can display image data of a plurality of pixels constituting an image corresponding to each element. Here, the image data of each pixel is, for example, data indicating each component obtained by decomposing each pixel into an R (red) component, a G (green) component, and a B (blue) component.
操作部18は、画像合成装置1を使用する使用者が、画像合成装置1に対し撮影等の操作を行ったり、設定を変更するなどの操作を行う部位であり、少なくとも実画像20を撮影するための所謂シャッターを有している。 The operation unit 18 is a part where a user who uses the image composition device 1 performs an operation such as photographing or changing settings on the image composition device 1, and photographs at least the actual image 20. So-called shutters are provided.
記憶部14は、本画像合成装置1にて合成画像を生成するための各種情報が記憶されている合成情報記憶領域14aと、撮影された実画像の画像データを画素毎に記憶する2つの画像記憶領域14b、14cと、画像を合成するために必要な画素毎の情報を記憶する画素情報記憶領域14dとを有している。 The storage unit 14 includes a composite information storage area 14a in which various types of information for generating a composite image in the image composition apparatus 1 are stored, and two images that store image data of a captured real image for each pixel. It has storage areas 14b and 14c and a pixel information storage area 14d for storing information for each pixel necessary for synthesizing an image.
合成情報記憶領域14aには、被写体に含まれているマーカー21にて示される情報や、撮影位置や方向等の情報に対応づけられた仮想画像22、仮想画像22の実画像20に対して配置すべき位置を、マーカー21が設けられている位置を示す位置情報または本画像合成装置1の撮影時の視点との距離を示す距離情報、および、実画像20と仮想画像22とを重ね合わせたときに、実画像または仮想画像のいずれかを配置することが予め設定されている設定領域26と設定領域26の撮影時の視点位置との相対位置を示す設定領域情報などが記憶されている。 In the composite information storage area 14a, the virtual image 22 associated with information indicated by the marker 21 included in the subject, information such as the shooting position and direction, and the actual image 20 of the virtual image 22 are arranged. The position information indicating the position where the marker 21 is provided or the distance information indicating the distance from the viewpoint at the time of shooting of the image composition device 1 and the real image 20 and the virtual image 22 are superimposed. In some cases, setting area information indicating a relative position between a setting area 26 in which placement of either a real image or a virtual image is set in advance and a viewpoint position at the time of shooting of the setting area 26 is stored.
2つの画像記憶領域14b、14cは、いずれも撮影された画像データが画素毎に記憶される記憶領域であり、一方の画像記憶領域は、合成画像を生成する処理の中で画像データが書き換えられていく作業領域となる画像仮想展開領域14bであり、他方の画像記憶領域は、次の撮影が行われるまで既に撮影された画像データを、実画像における各画素の位置情報及び距離情報と対応づけてテクスチャーとして保持しておく実画像保存記憶領域14cである。上述したように、各画素の画像データはR,G,Bの3つの成分を示すデータを有するので、画像仮想展開領域14b及び実画像保存記憶領域14cは、各々合成画像を構成する画素数の3倍の記憶領域を有している。 Each of the two image storage areas 14b and 14c is a storage area in which captured image data is stored for each pixel, and one image storage area is rewritten in the process of generating a composite image. The other image storage area is an image virtual development area 14b to be a working area, and the other image storage area associates image data that has already been shot until the next shooting is performed with position information and distance information of each pixel in the actual image. This is an actual image storage area 14c that is held as a texture. As described above, since the image data of each pixel has data indicating three components of R, G, and B, the image virtual development area 14b and the actual image storage area 14c each have the number of pixels constituting the composite image. It has three times the storage area.
画像仮想展開領域14bに記憶される画像データは、合成画像を生成する際には必要に応じて対応する画素の画像データが書き換えられる。そして、画像仮想展開領域14bに画素毎に記憶された3つのデータは、各画素の画像データが書き換えられる場合には、R成分、G成分、B成分の各データがそれぞれ書き換えられる。このとき、実画像保存記憶領域14c及び画像仮想展開領域14bは、記憶領域が表示部16または撮像部10の素子と同様に配列されている必要はなく、各画像記憶領域14b、14cの画像データが、表示部16または撮像部10の素子と対応づけられて記憶されていればよい。 The image data stored in the image virtual development area 14b is rewritten with the corresponding pixel image data as necessary when generating a composite image. The three data stored for each pixel in the image virtual development area 14b are rewritten respectively for the R component, the G component, and the B component when the image data of each pixel is rewritten. At this time, the real image storage area 14c and the image virtual development area 14b do not have to be arranged in the same manner as the elements of the display unit 16 or the imaging unit 10, and the image data of the image storage areas 14b and 14c May be stored in association with the elements of the display unit 16 or the imaging unit 10.
画素情報記憶領域14dは、たとえば、各画素に対応づけられた画像の、被写体を撮影する視点に対する位置を示す情報を、画素毎に記憶する記憶領域である。このため、画素情報記憶領域14dは合成画像を構成する画素数分の記憶領域を有している。 The pixel information storage area 14d is a storage area for storing, for each pixel, information indicating the position of the image associated with each pixel with respect to the viewpoint at which the subject is photographed. For this reason, the pixel information storage area 14d has storage areas for the number of pixels constituting the composite image.
制御部12は、使用者により操作部18が操作されることにより、撮像部10や表示部16を制御したり、撮影された実画像20の画像データからマーカー21を抽出し、マーカー21にて示される情報を解析する解析処理、解析された情報や撮影に計測された距離や方向を示す情報に基づいて、実画像20と記憶部14に記憶されている仮想画像22とを合成する画像合成処理等の各種処理を実行する。 The control unit 12 controls the imaging unit 10 and the display unit 16 by operating the operation unit 18 by the user, or extracts the marker 21 from the image data of the captured real image 20. Image synthesis for synthesizing the real image 20 and the virtual image 22 stored in the storage unit 14 based on the analysis processing for analyzing the information shown, the analyzed information, and the information indicating the distance and the direction measured in photographing. Various processes such as processes are executed.
次に、制御部12により実行される画像合成方法について説明する。 Next, an image composition method executed by the control unit 12 will be described.
<第1実施形態>
第1実施形態の画像合成方法は、画像合成装置1に設けられ、撮像部10にて撮影するための操作部18であるシャッターが操作されて処理が開始される。このとき、画像合成装置1が、デジタルカメラなどのように、単に実画像を撮影するときと、合成画像を生成するときとで処理を切り替えるスイッチが操作部18に設けられていてもよい。また、常に合成画像を生成する処理が実行されるように設定されており、撮影された実画像にマーカー21が検出されたとき、または、撮影位置及び撮影方向が特定されたときのみ合成画像を生成する処理を実行することとしてもよい。
<First Embodiment>
The image synthesizing method of the first embodiment is provided in the image synthesizing apparatus 1, and a process is started by operating a shutter which is an operation unit 18 for photographing with the imaging unit 10. At this time, the operation unit 18 may be provided with a switch for switching processing between when the image composition device 1 simply captures a real image and when a composite image is generated, such as a digital camera. Further, it is set so that a process for generating a composite image is always executed, and the composite image is displayed only when the marker 21 is detected in the photographed real image or when the photographing position and the photographing direction are specified. It is good also as performing the process to produce | generate.
第1実施形態の場合には、被写体が屋外と屋内とを仕切る壁であって、この壁にマーカー21が設けられている状態を撮影することとする。このマーカー21には、撮影した実画像と合成すべき仮想画像22を特定するための情報が含まれている。 In the case of the first embodiment, it is assumed that the subject is a wall that partitions the outdoor and indoors, and the marker 21 is provided on the wall. The marker 21 includes information for specifying the virtual image 22 to be combined with the captured real image.
図2は、第1実施形態の画像合成方法を説明するためのフローチャートであり、図3は、第1実施形態の画像合成方法にて画像が合成される過程のイメージを示す図である。 FIG. 2 is a flowchart for explaining the image composition method of the first embodiment, and FIG. 3 is a diagram showing an image in the process of image synthesis by the image composition method of the first embodiment.
制御部12は、シャッターが操作されると撮像部10にて被写体を撮影し(撮影工程S1)、撮影された実画像を構成する各画素のデータを、記憶部14の実画像保存記憶領域14cと、画像仮想展開領域14bとにそれぞれ記憶する(実画像記憶工程S2)。この状態にて、画像仮想展開領域14bには、図3(a)に示すような、マーカー21が設けられた壁の実画像20を形成する画像データが記憶されている。 When the shutter is operated, the control unit 12 captures a subject with the imaging unit 10 (imaging step S1), and stores the data of each pixel constituting the captured actual image in the actual image storage storage area 14c of the storage unit 14. And the image virtual development area 14b (actual image storage step S2). In this state, the image virtual development area 14b stores image data forming a real image 20 of the wall provided with the markers 21 as shown in FIG.
このとき、制御部12は実画像の撮影時に撮像部10から取得した情報に基づき、一般的なカメラにも搭載されているオートフォーカス機構の原理を利用して、例えば、レンズの上半分と下半分にて生じる重心位置の違いを利用して被写体と、撮像部10の視点位置との距離を計測し、計測した距離情報を記憶部14に記憶する。この距離情報は、撮影により取得された情報に含まれる。 At this time, the control unit 12 uses, for example, the upper half of the lens and the lower half of the lens based on the information acquired from the imaging unit 10 at the time of capturing a real image, using the principle of an autofocus mechanism mounted on a general camera. The distance between the subject and the viewpoint position of the imaging unit 10 is measured using the difference in the center of gravity position generated in half, and the measured distance information is stored in the storage unit 14. This distance information is included in information acquired by photographing.
次に制御部12は、実画像20の画像データにマーカー21が撮影されているか否かを解析する(S3)。このとき、実画像20の画像データにマーカー21が撮影されていなかった場合には、合成する画像が存在しないと判定し、撮影された実画像20を表示部16に表示する(S11)。また、マーカー21を検出した場合には、さらにマーカー21を解析して、マーカー21により示される情報とマーカー21の情報に対応づけられている合成情報を合成情報記憶領域14aから取得する(情報取得工程S4)。 Next, the control unit 12 analyzes whether or not the marker 21 is captured in the image data of the actual image 20 (S3). At this time, if the marker 21 is not photographed in the image data of the real image 20, it is determined that there is no image to be combined, and the photographed real image 20 is displayed on the display unit 16 (S11). Further, when the marker 21 is detected, the marker 21 is further analyzed, and the composite information associated with the information indicated by the marker 21 and the information of the marker 21 is acquired from the composite information storage area 14a (information acquisition) Step S4).
このとき取得される情報は、撮影された実画像20に重ね合わせる仮想画像22を特定する情報と、特定された仮想画像22を実画像20に対して重ね合わせるべき平面上の位置、及び、特定された仮想画像を配置すべき、撮影した視点に対する距離を示す距離情報と、生成される合成画像において実画像20と仮想画像22のうちのいずれを配置するかが予め設定されている領域を示す設定領域情報とを含む情報である。 The information acquired at this time includes information for specifying the virtual image 22 to be superimposed on the captured real image 20, the position on the plane on which the specified virtual image 22 should be superimposed on the real image 20, and the specification. The distance information indicating the distance to the photographed viewpoint where the virtual image should be placed, and the region in which the real image 20 or the virtual image 22 is to be placed in the generated composite image are set in advance. Information including setting area information.
第1実施形態の場合には、仮想画像22として図3(b)に示すような、窓枠の仮想画像22aと図3(c)に示すような、景色の仮想画像22bとが特定される。また、合成情報として、窓枠の仮想画像22aが実画像20の壁に設けられるように配置される距離情報と、窓枠の仮想画像22aと景色の仮想画像22bとがマーカー21が設けられている位置を中心として重ねて配置される位置情報と、設定領域26として、図3(d)に示すような、実画像20上に重ね合わせられる領域を示す情報と、が取得される。ここで、設定領域26としては、景色と窓枠の仮想画像22a、22bのうち、景色の仮想画像22bにおいて窓枠より外側に位置する領域が設定されているという領域情報、設定領域の画像が配置されるべき、撮影の視点からの距離が、マーカー21が設けられている壁と同じ距離であるという距離情報、また、設定領域26には実画像20が配置されることが設定されているという情報などの合成情報が取得される。 In the case of the first embodiment, as the virtual image 22, a window frame virtual image 22a as shown in FIG. 3B and a landscape virtual image 22b as shown in FIG. 3C are specified. . Further, as the composite information, the marker 21 is provided with distance information arranged so that the virtual image 22a of the window frame is provided on the wall of the actual image 20, and the virtual image 22a of the window frame and the virtual image 22b of the scenery. Position information that is arranged with the existing position as a center, and information that indicates a region that is superimposed on the actual image 20 as shown in FIG. Here, as the setting area 26, area information indicating that an area located outside the window frame is set in the scenery virtual image 22b among the scenery and window frame virtual images 22a and 22b, and an image of the setting area includes The distance information that the distance from the photographing viewpoint to be arranged is the same distance as the wall on which the marker 21 is provided, and that the actual image 20 is arranged in the setting area 26 is set. Is obtained.
次に、制御部12は取得した合成情報と、撮影時に計測されて記憶されている距離情報に基づいて、窓枠の仮想画像22a、及び、景色の仮想画像22bを実画像のサイズと対応するサイズに適宜変換する。このとき、仮想画像22の大きさは、距離情報に基づいて、表示部16に表示される領域のサイズとして設定され、表示部16に仮想画像22が表示される画素が特定される。 Next, the control unit 12 associates the virtual image 22a of the window frame and the virtual image 22b of the scenery with the size of the actual image based on the acquired composite information and the distance information measured and stored at the time of shooting. Convert to size as appropriate. At this time, the size of the virtual image 22 is set as the size of the area displayed on the display unit 16 based on the distance information, and the pixel on which the virtual image 22 is displayed on the display unit 16 is specified.
そして、制御部12は、取得した位置情報に基づいて、適宜大きさに変換された仮想画像22と実画像20とが重なる領域、及び、合成画像24上における設定領域を特定する。具体的には、画像仮想展開領域14bにおいて、窓枠の仮想画像22aが重なる画素、景色の仮想画像22bが重なる画素、設定領域となる画素がそれぞれ特定される(特定工程S5)。 Then, the control unit 12 identifies a region where the virtual image 22 and the real image 20 that have been appropriately converted to a size overlap, and a setting region on the composite image 24 based on the acquired position information. Specifically, in the image virtual development area 14b, a pixel in which the window frame virtual image 22a overlaps, a pixel in which the landscape virtual image 22b overlaps, and a pixel in the setting area are specified (specification step S5).
本実施形態においては、設定領域26は、距離情報に基づいてサイズが変換された窓枠の仮想画像22aと景色の仮想画像22bとが、マーカー21の位置を中心として重ね合わせられたときに、窓枠の仮想画像22aの外側に配置される景色の仮想画像22bに相当する領域として設定されており、設定領域26に含まれる各画素には実画像の画像データが配置されるように設定されている。 In the present embodiment, the setting area 26 is obtained when the virtual image 22a of the window frame whose size is converted based on the distance information and the virtual image 22b of the scenery are superimposed with the position of the marker 21 as the center. It is set as an area corresponding to the scenery virtual image 22b arranged outside the virtual image 22a of the window frame, and is set so that image data of the actual image is arranged in each pixel included in the setting area 26. ing.
次に、制御部12は、特定された窓枠の仮想画像22a、景色の仮想画像22b、及び、設定領域26のうち、撮影の視点からの距離が最も長いものが選択される(S7)。ここでは、撮影の視点からの距離が最も長い景色の仮想画像22bが選択される。 Next, among the identified window frame virtual image 22a, landscape virtual image 22b, and setting area 26, the control unit 12 selects the one having the longest distance from the shooting viewpoint (S7). Here, the virtual image 22b having the longest distance from the shooting viewpoint is selected.
次に、制御部12は、選択されたオブジェクトが設定領域26か否かが判定される(S8)。この場合には、設定領域26ではないので、制御部12は、画像仮想展開領域14bの各画素のうち、景色の仮想画像22bが配置される画素の画像データを景色の仮想画像22bの画像データに書き換える。この状態にて、画像仮想展開領域14bには、図3(e)に示すような、撮影された壁の実画像20上に景色の仮想画像22bの全体が配置された画像を形成する画像データが記憶されている。 Next, the control unit 12 determines whether or not the selected object is the setting area 26 (S8). In this case, since it is not the setting area 26, the control unit 12 uses the image data of the pixel in which the scenery virtual image 22b is arranged among the pixels of the image virtual development area 14b as the image data of the scenery virtual image 22b. Rewrite to In this state, image data forming an image in which the entire virtual image 22b of the scenery is arranged on the real image 20 of the photographed wall as shown in FIG. Is remembered.
次に、制御部12は、さらに合成すべき画像があるか否かを判定する(S6)。この場合には、窓枠の仮想画像22aと設定領域26とが残っているため、画像を合成する処理を継続する。 Next, the control unit 12 determines whether there is an image to be further synthesized (S6). In this case, since the virtual image 22a of the window frame and the setting area 26 remain, the process of combining the images is continued.
すなわち、制御部12は、窓枠の仮想画像22aと設定領域26のうち、撮影の視点からの距離が長いオブジェクトを選択する(S7)。この場合には、窓枠の仮想画像22aにおける撮影の視点からの距離は、マーカー21が設けられた壁より手前に突出した位置であり、設定領域26は、マーカー21が設けられた壁の表面なので、設定領域26が選択される。 That is, the control unit 12 selects an object having a long distance from the shooting viewpoint from the virtual image 22a of the window frame and the setting area 26 (S7). In this case, the distance from the shooting viewpoint in the virtual image 22a of the window frame is a position protruding forward from the wall on which the marker 21 is provided, and the setting area 26 is the surface of the wall on which the marker 21 is provided. Therefore, the setting area 26 is selected.
次に、制御部12は、選択されたオブジェクトが設定領域26か否かが判定される(S8)。この場合には、設定領域26なので、制御部12は、画像仮想展開領域14bの各画素のうち、設定領域26が配置される画素の画像データを、実画像保存記憶領域14cに記憶されている実画像20の画像データに書き換える(S9)。この状態にて、画像仮想展開領域14bには、図3(f)に示すような、撮影された壁の実画像20上の、窓枠の内側に相当する領域のみに景色の仮想画像22bが配置された画像を形成する画像データが記憶されている。第1実施形態の場合には、合成する領域が設定領域26か否かを判定し(S8)、設定領域26の場合には画像仮想展開領域14bの画像データを、実画像保存記憶領域14cに記憶されている実画像20の画像データに書き換え(S9)、設定領域26でない場合には、画像仮想展開領域14bの画像データを、仮想画像22の画像データに書き換える(S10)処理が画像合成工程に含まれる。 Next, the control unit 12 determines whether or not the selected object is the setting area 26 (S8). In this case, since it is the setting area 26, the control unit 12 stores the image data of the pixel in which the setting area 26 is arranged among the pixels of the image virtual development area 14b in the actual image storage area 14c. The actual image 20 is rewritten with the image data (S9). In this state, in the image virtual development area 14b, a landscape virtual image 22b is displayed only in an area corresponding to the inside of the window frame on the photographed wall real image 20, as shown in FIG. Image data forming the arranged image is stored. In the case of the first embodiment, it is determined whether or not the area to be combined is the setting area 26 (S8). In the case of the setting area 26, the image data in the image virtual development area 14b is stored in the real image storage area 14c. The image data of the real image 20 stored is rewritten (S9), and if it is not the setting area 26, the image data of the image virtual development area 14b is rewritten to the image data of the virtual image 22 (S10). include.
次に、制御部12は、さらに合成すべき画像があるか否かを判定する(S6)。この場合には、窓枠の仮想画像22aが残っているため、画像を合成する処理を継続する。この場合には、撮影の視点からの距離に拘わらず窓枠の仮想画像22aが選択される(S7)。 Next, the control unit 12 determines whether there is an image to be further synthesized (S6). In this case, since the virtual image 22a of the window frame remains, the process of combining the images is continued. In this case, the virtual image 22a of the window frame is selected regardless of the distance from the shooting viewpoint (S7).
次に、制御部12は、選択されたオブジェクトが設定領域26か否かが判定される(S8)。この場合には、設定領域26ではないので、制御部12は、画像仮想展開領域14bの各画素のうち、窓枠の仮想画像22aが配置される画素の画像データを、窓枠の仮想画像22aの画像データに書き換える(S10)。この状態にて、画像仮想展開領域14bには、図3(g)に示すような、撮影された壁に窓枠があり、窓枠の内側に景色の画像が配置された合成画像24を形成する画像データが記憶されている。 Next, the control unit 12 determines whether or not the selected object is the setting area 26 (S8). In this case, since it is not the setting area 26, the control unit 12 converts the image data of the pixel in which the window frame virtual image 22a is arranged among the pixels of the image virtual development area 14b to the window frame virtual image 22a. (S10). In this state, in the image virtual development area 14b, as shown in FIG. 3G, a composite image 24 having a window frame on the photographed wall and a landscape image arranged inside the window frame is formed. The image data to be stored is stored.
次に、制御部12は、さらに合成すべき画像があるか否かを判定する(S6)。このとき、合成すべきオブジェクトが残っていないため、画像を合成する処理を終了して画像仮想展開領域14bに記憶されている画像のデータに基づいて表示部16に画像を表示する(S11)。 Next, the control unit 12 determines whether there is an image to be further synthesized (S6). At this time, since there are no remaining objects to be synthesized, the process of synthesizing the image is terminated, and the image is displayed on the display unit 16 based on the image data stored in the image virtual development area 14b (S11).
第1実施形態の画像合成方法によれば、マーカー21が設けられた壁を撮影したときに、マーカー21が示す合成情報に基づいて、実画像20に窓枠の仮想画像22aや景色の仮想画像22bが合成されるとともに、設定領域には実画像20が配置されるので、単純に実画像20と窓枠の仮想画像22aや景色の仮想画像22bとが合成されるだけでなく、設定領域26には設定された実画像20を配置することが可能である。このため、本来景色が見えるはずがない窓枠の外側を設定領域26として設定することにより、設定領域26に実画像20を配置して、窓枠の外側の領域を壁とすることが可能である。このため、より現実に即した合成画像を生成することが可能である。 According to the image composition method of the first embodiment, when the wall provided with the marker 21 is photographed, the virtual image 22a of the window frame or the virtual image of the landscape is displayed on the real image 20 based on the composite information indicated by the marker 21. Since the real image 20 is arranged in the setting area, the real image 20 is simply combined with the virtual image 22a of the window frame and the virtual image 22b of the scenery, as well as the setting area 26. It is possible to arrange the set real image 20. For this reason, by setting the outside of the window frame where the scenery should not be originally visible as the setting area 26, it is possible to place the actual image 20 in the setting area 26 and use the area outside the window frame as a wall. is there. For this reason, it is possible to generate a composite image that is more realistic.
また、窓枠の仮想画像22a、景色の仮想画像22b及び設定領域26などは、合成情報において視点からの距離が長く設定されているものから順次、撮影された実画像20の画像データと書き換えられるので、視点からの距離が最も短いもの、すなわち視点により近くに位置するものが、合成画像24上に現れる。このため、実画像20と窓枠の仮想画像22a及び景色の仮想画像22bとを、あたかも視点から見えるような状態に配置することが可能である。 Further, the virtual image 22a of the window frame, the virtual image 22b of the scenery, the setting area 26, and the like are sequentially rewritten with the image data of the photographed real image 20 from the composite information in which the distance from the viewpoint is set to be long. Therefore, the one having the shortest distance from the viewpoint, that is, the one located closer to the viewpoint appears on the composite image 24. For this reason, it is possible to arrange the real image 20, the virtual image 22a of the window frame, and the virtual image 22b of the scenery so as to be seen from the viewpoint.
また、撮影された被写体の、視点からの距離より長い距離が設定された、例えば景色の仮想画像22bの領域に設定された設定領域26に実画像20の画像データが配置されるので、本来実画像20の後に隠れるべき景色の仮想画像22bの画像データが実画像20の画像データに書き換えられる。このため、合成された合成画像24は、あたかも視点から見えるように実画像20と窓枠の仮想画像22a及び景色の仮想画像22bとを合成することが可能である。このため、さらに現実に即した合成画像24を生成することが可能である。 In addition, since the image data of the actual image 20 is arranged in the setting area 26 set in the area of the virtual image 22b of the scenery, for example, where a distance longer than the distance from the viewpoint of the photographed subject is set, The image data of the scenery virtual image 22b to be hidden after the image 20 is rewritten to the image data of the real image 20. Therefore, the synthesized image 24 can be synthesized with the real image 20, the window frame virtual image 22 a, and the landscape virtual image 22 b as if viewed from the viewpoint. Therefore, it is possible to generate a composite image 24 that is more realistic.
<第2実施形態>
第2実施形態の画像合成方法も、撮像部10にて撮影するためのシャッターが操作されて処理が開始されることは第1実施形態と同様である。以下、第1実施形態と同様の部材については同符号を付し、一部説明を省略する。
Second Embodiment
The image synthesis method of the second embodiment is the same as that of the first embodiment in that processing is started by operating a shutter for photographing by the imaging unit 10. Hereinafter, members similar to those in the first embodiment are denoted by the same reference numerals, and a part of the description is omitted.
第2実施形態の場合には、被写体として、2つの机が配置された室内であって、机にマーカー21が設けられている室内が撮影されることとする。このとき、2つの机は、奥行き方向に前後に配置されており、手前側の机(以下、手前机という)が奥側の机(以下、奥机という)より僅かに左寄りに配置されている。撮影された実画像において、2つの机は、背景(床や壁)とは異なる画像要素23a、23bとして設定されるとともに、所定の条件に基づいて実画像の画像データ、すなわち、手前机の画像要素23a及び奥机の画像要素23bの画像データが配置されるように設定された設定領域をなしている。 In the case of the second embodiment, it is assumed that a room in which two desks are arranged and a room in which a marker 21 is provided is taken as a subject. At this time, the two desks are arranged in the front-rear direction in the depth direction, and the front desk (hereinafter referred to as the front desk) is arranged slightly to the left of the back desk (hereinafter referred to as the back desk). . In the photographed real image, the two desks are set as image elements 23a and 23b different from the background (floor or wall), and the image data of the real image, that is, the image element of the front desk is based on a predetermined condition. 23a and a setting area set so that image data of the back image element 23b is arranged.
また、第2実施形態では、各画素にて示される画像の、撮像部10の視点の位置に対する距離に応じた距離情報としての数値(以下、深度という)を、各画素に対応させて記憶する領域となる距離情報記憶領域としての画素情報記憶領域14dに各画素の深度を記憶する深度バッファーが設けられている。この距離情報は、撮像部10の視点の位置に対する距離に応じた深度として与えられており、撮像部10の視点の位置から近い位置に配置される画像から小さな深度が付与されている。 In the second embodiment, a numerical value (hereinafter referred to as a depth) as distance information corresponding to the distance of the image indicated by each pixel with respect to the position of the viewpoint of the imaging unit 10 is stored in association with each pixel. A depth buffer for storing the depth of each pixel is provided in a pixel information storage area 14d as a distance information storage area. This distance information is given as a depth corresponding to the distance to the viewpoint position of the imaging unit 10, and a small depth is given from an image arranged at a position close to the viewpoint position of the imaging unit 10.
図4は、第2実施形態の画像合成方法を説明するためのフローチャートである。図5は、 第2実施形態の画像合成方法における実画像、仮想画像、設定領域に設定された画像と実画像、仮想画像、画像要素の深度バッファーのイメージを示す図である。図6は、第2実施形態の画像合成方法にて画像が合成される過程と深度バッファーのイメージを示す図である。図6では、説明の便宜上、画像のイメージを示す升目と深度バッファー及び深度とを重ねて示している。 FIG. 4 is a flowchart for explaining an image composition method according to the second embodiment. FIG. 5 is a diagram illustrating a real image, a virtual image, an image set in a setting region, a real image, a virtual image, and an image element depth buffer image in the image composition method according to the second embodiment. FIG. 6 is a diagram illustrating a process in which images are combined by the image combining method according to the second embodiment and an image of a depth buffer. In FIG. 6, for convenience of explanation, the cells indicating the image are overlapped with the depth buffer and the depth.
制御部12は、シャッターが操作されると撮像部10にて被写体を撮影し(撮影工程S101)、撮影された実画像を構成する各画素のデータを、記憶部14の実画像保存記憶領域14cと、画像仮想展開領域14bとにそれぞれ記憶する(実画像記憶工程S102)。また、撮影時には、被写体と、撮像部10の視点からの距離を計測し、計測した距離情報を記憶部14に記憶する。第2実施形態では、マーカー21が設けられている2つの机及び、机の後に配置された壁の、撮像部10の視点からの距離を計測されて記憶部14に記憶される。 When the shutter is operated, the control unit 12 captures a subject with the imaging unit 10 (imaging step S101), and stores data of each pixel constituting the captured actual image in the actual image storage area 14c of the storage unit 14. And the image virtual development area 14b (actual image storage step S102). Further, at the time of shooting, the distance from the subject and the viewpoint of the imaging unit 10 is measured, and the measured distance information is stored in the storage unit 14. In the second embodiment, the distance from the viewpoint of the imaging unit 10 of the two desks provided with the markers 21 and the wall arranged behind the desk is measured and stored in the storage unit 14.
画像仮想展開領域14bに記憶された実画像20の画像データには、撮像部10の視点の位置から最も遠い位置(無限遠)を示す深度が付与されており、実画像保存記憶工程S102にて実画像20の画像データが記憶されると、画素情報記憶領域14dの深度バッファーが初期化される(S103)。深度バッファーの初期化では、例えば、画像仮想展開領域14bに記憶された実画像20の各画素に付与されている深度「9」が、深度バッファーの全ての画素の深度として記憶される。この状態にて、図5(a)、図6(a)の左図に示すような、2つの机が配置された室内の実画像20を形成する画像データが画像仮想展開領域14bに記憶され、深度バッファーには、全ての画素に深度「9」が記憶されている。 The image data of the real image 20 stored in the image virtual development area 14b is given a depth indicating a position farthest from the viewpoint position of the imaging unit 10 (infinity), and in the real image storage and storage step S102. When the image data of the real image 20 is stored, the depth buffer of the pixel information storage area 14d is initialized (S103). In the initialization of the depth buffer, for example, the depth “9” given to each pixel of the real image 20 stored in the image virtual development area 14b is stored as the depth of all the pixels in the depth buffer. In this state, image data forming a real image 20 in a room where two desks are arranged as shown in the left diagrams of FIGS. 5A and 6A are stored in the image virtual development area 14b. In the depth buffer, depth “9” is stored in all pixels.
また、実画像20上に存在する2つの机が、実画像に含まれた画像要素として設定されているとともに、2つの机の画像要素の領域が設定領域26に設定されていることが設定領域情報として記憶されている。例えば、図5(b)、図5(c)に示すように手前机と奥机が画像要素23a、23bとして設定され、手前机の画像要素23aをなす各画素に位置情報として深度「1」が、奥机の画像要素23bをなす各画素に位置情報として深度「3」が、撮影時に取得したマーカー21の情報に基づいて設定される。尚、手前机の画像要素23aと奥机の画像要素23bは、撮影された実画像の画像データのサイズと同じサイズになるように、同数の画素データが与えられている。 In addition, two desks existing on the real image 20 are set as image elements included in the real image, and the area of the two desk image elements is set in the setting area 26. It is stored as information. For example, as shown in FIGS. 5B and 5C, the front desk and the back desk are set as image elements 23a and 23b, and the depth “1” is set as position information for each pixel forming the image element 23a of the front desk. However, the depth “3” is set as position information for each pixel forming the back desk image element 23b based on the information of the marker 21 acquired at the time of photographing. The front desk image element 23a and the back desk image element 23b are provided with the same number of pixel data so as to have the same size as the size of the image data of the captured real image.
次に制御部12は、実画像20の画像データにマーカー21が撮影されているか否かを解析する(S104)。このとき、実画像20の画像データにマーカー21が撮影されていなかった場合には、合成する画像が存在しないと判定し、撮影された実画像20を表示部16に表示する(S115)。また、マーカー21を検出した場合には、さらにマーカー21を解析して、マーカー21により示される情報とマーカー21の情報に対応づけられている合成情報を合成情報記憶領域14aから取得する(情報取得工程S105)。 Next, the control unit 12 analyzes whether or not the marker 21 is captured in the image data of the actual image 20 (S104). At this time, if the marker 21 is not captured in the image data of the actual image 20, it is determined that there is no image to be combined, and the captured actual image 20 is displayed on the display unit 16 (S115). Further, when the marker 21 is detected, the marker 21 is further analyzed, and the composite information associated with the information indicated by the marker 21 and the information of the marker 21 is acquired from the composite information storage area 14a (information acquisition) Step S105).
第2実施形態の場合には、マーカー21により、仮想画像22として2つの人物の全身を表す人物の仮想画像22c、22dが特定され、実画像に含まれる画像要素23として2つの机の画像要素23a、23bが特定され、2つの机の画像要素23a、23bが設定領域26に設定されている情報を取得する。 In the case of the second embodiment, the virtual images 22c and 22d representing the whole body of two persons are specified as the virtual image 22 by the marker 21, and the image elements of the two desks are included as the image elements 23 included in the actual image. 23a and 23b are specified, and information in which the image elements 23a and 23b of the two desks are set in the setting area 26 is acquired.
また、合成情報として、2つの人物の仮想画像22d、22dのうちの一方の人物の仮想画像(以下、手前人物像という)22cが2つの机の間に位置し、2つの人物像のうちの他方の人物の仮想画像(以下、奥人物像という)22dが奥机と壁との間に位置することを示す距離情報が取得される。この距離情報は、撮像部10の視点の位置に対する距離に応じた深度として与えられているので、この例では、たとえば、手前人物像22cに距離情報として深度「2」が、奥人物像22dに位置情報として深度「4」が、各画素に対応させて付与されている。 Further, as composite information, a virtual image 22c of one person (hereinafter referred to as a front person image) 22c of two persons is located between two desks. Distance information indicating that a virtual image (hereinafter referred to as a back person image) 22d of the other person is located between the back desk and the wall is acquired. Since this distance information is given as a depth corresponding to the distance to the position of the viewpoint of the imaging unit 10, in this example, for example, a depth “2” is added as distance information to the front person image 22c, and a depth person image 22d is displayed. Depth “4” is given as position information corresponding to each pixel.
また、2つの机を示す画像要素23a、23bには、撮影の視点からの距離が、マーカー21が設けられている各机と同じ距離であるという距離情報などの合成情報が取得される。ここで、2つの机の画像要素23a、23bの距離情報としては、手前机の画像要素23aの各画素に位置情報として深度「1」が、奥机の画像要素23bの各画素に位置情報として深度「3」が取得される。以下の説明では、2つの仮想画像22c、22d及び2つの画像要素23a、23bをそれぞれオブジェクトともいう。 Further, in the image elements 23a and 23b indicating the two desks, composite information such as distance information indicating that the distance from the photographing viewpoint is the same distance as each desk on which the marker 21 is provided is acquired. Here, the distance information between the image elements 23a and 23b of the two desks is the depth “1” as the position information for each pixel of the image element 23a of the front desk, and the position information for each pixel of the image element 23b of the back desk. The depth “3” is acquired. In the following description, the two virtual images 22c and 22d and the two image elements 23a and 23b are also referred to as objects.
次に制御部12は、2つの人物の仮想画像22c、22d及び2つの画像要素23a、23bから1つのオブジェクトを選択する(S106)。このとき選択されるオブジェクトは、特定された順など、予め設定されている順に選択される。ここでは、例えば、まず、手前人物像22cが選択されたとする。 Next, the control unit 12 selects one object from the virtual images 22c and 22d of the two persons and the two image elements 23a and 23b (S106). The objects selected at this time are selected in a preset order such as the specified order. Here, for example, it is assumed that the front person image 22c is first selected.
次に、選択された手前人物像22cの画像データは、制御部12により、撮影時に計測されて記憶されている距離情報に基づいて適宜大きさに変換される。変換された手前人物像22cの画像データに基づいて、画像仮想展開領域14bにおいて手前人物像22cが配置される画素が特定される(S108)。 Next, the image data of the selected foreground person image 22c is appropriately converted into a size by the control unit 12 based on the distance information measured and stored at the time of shooting. Based on the converted image data of the foreground person image 22c, a pixel in which the foreground person image 22c is arranged in the image virtual development area 14b is specified (S108).
次に、制御部12は、手前人物像22cの画素データが配置されると特定された、画像仮想展開領域14bの各画素に対して、深度バッファーに記憶されている深度と、手前人物像22cの画素データに設定されている深度とを画素毎に順次比較する(S109)。このとき、深度バッファーは初期化されて全ての画素の深度として「9」が記憶されているので、手前人物像22cの全ての画素に設定されている深度「2」の方が小さく、撮影の視点に近いと判定される。 Next, the control unit 12 specifies the depth stored in the depth buffer and the foreground human image 22c for each pixel of the image virtual development area 14b, which is specified as the pixel data of the foreground human image 22c being arranged. The depth set in the pixel data is sequentially compared for each pixel (S109). At this time, since the depth buffer is initialized and “9” is stored as the depth of all the pixels, the depth “2” set for all the pixels of the foreground person image 22c is smaller and the shooting is performed. Determined to be close to the viewpoint.
そして、手前人物像22cに設定されている深度「2」の方が深度バッファーの対応する画素の深度よりの小さい場合には、当該画素が設定領域26、すなわち、手前机の画像要素23a及び奥机の画像要素23bに含まれているか否かが判定される(S110)。第2実施形態の場合には、手前人物像22cに設定されている深度「2」であり、手前机の画像要素23aに設定されている深度が「1」、奥机の画像要素23bに設定されている深度が「3」なので、手前人物像22cの画素が奥机の画像要素23bに設定されている設定領域26に含まれるか否かは判定されない。 When the depth “2” set in the front person image 22c is smaller than the depth of the corresponding pixel in the depth buffer, the pixel is in the setting area 26, that is, the image element 23a and the back of the front desk. It is determined whether or not the image element 23b is included in the desk (S110). In the case of the second embodiment, the depth set to the front person image 22c is “2”, the depth set to the front desk image element 23a is “1”, and the back desk image element 23b is set. Since the set depth is “3”, it is not determined whether or not the pixel of the front person image 22c is included in the setting area 26 set in the image element 23b of the back desk.
そして、手前人物像22cの対象となる画素が、設定領域に設定されている手前机の画像要素23aに含まれていない場合には、画像仮想展開領域14bの対象となる画素の画像データを、仮想画像である手前人物像22cの画像データに書き換えるとともに(S112)、深度バッファーの深度を手前人物像22cに設定されている深度「2」に更新する(S113)。 If the target pixel of the front human image 22c is not included in the front desk image element 23a set in the setting area, the image data of the target pixel of the image virtual development area 14b is The image data of the front person image 22c, which is a virtual image, is rewritten (S112), and the depth buffer depth is updated to the depth “2” set in the front person image 22c (S113).
一方、手前人物像22cの対象となる画素が、設定領域に設定されている手前机の画像要素23aに含まれている場合には、画像仮想展開領域14bの対象となる画素の画像データを、実画像保存記憶領域14cに記憶されている実画像20の画像データに書き換えるとともに(S111)、深度バッファーの深度を手前机の画像要素23aに設定されている深度「1」に更新する(S113)。 On the other hand, when the target pixel of the front person image 22c is included in the front desk image element 23a set in the setting area, the image data of the target pixel of the image virtual development area 14b is The image data of the real image 20 stored in the real image storage area 14c is rewritten (S111), and the depth buffer depth is updated to the depth “1” set in the image element 23a of the front desk (S113). .
このように、手前人物像22cが有する各画素について、深度の比較、設定領域26か否かの判定がなされ、必要に応じて、実画像保存記憶領域14cの画像データが書き換えられ、深度バッファーの深度が更新されて、手前人物像22cの全ての画素について処理が完了する。 In this way, for each pixel included in the foreground person image 22c, the depth is compared and it is determined whether or not it is the setting area 26. If necessary, the image data in the real image storage area 14c is rewritten, and the depth buffer The depth is updated, and the processing is completed for all the pixels of the front person image 22c.
この状態にて、画像仮想展開領域14bには、図6(b)の左図のように、手前机と奥机との間に手前人物像22cが描かれた画像を形成する画像データが記憶され、深度バッファーには、手前机の画像要素23aと重なる手前人物像22cの領域には深度「1」が、手前机の画像要素23aと重ならない手前人物像22cの領域には深度「2」が書き込まれる。ここで、仮想画像を構成する各画素の深度と深度バッファーの深度とを比較する工程(S109)から深度バッファーを更新する工程(S113)が、画像合成工程に含まれる。 In this state, the image virtual development area 14b stores image data forming an image in which the front person image 22c is drawn between the front desk and the back desk, as shown in the left diagram of FIG. 6B. In the depth buffer, the depth “1” is present in the area of the front person image 22 c that overlaps the image element 23 a of the front desk, and the depth “2” is present in the area of the front person image 22 c that does not overlap the image element 23 a of the front desk. Is written. Here, the step (S113) of updating the depth buffer from the step (S109) of comparing the depth of each pixel constituting the virtual image with the depth of the depth buffer is included in the image synthesis step.
次に制御部12は、対象となるオブジェクトが全て処理されたか否かを判定する(S104)。この場合には、奥人物像22d、2つの画像要素23a、23bの処理がなされていないので、処理が行われていないオブジェクトのうちから、例えば手前机の画像要素23aが選択されて(S106)、処理が実行される。具体的には、まず、手前机の画像要素23aの画像データが、制御部12により、マーカー21による距離データに基づいて適宜大きさに変換される。変換された手前机の画像要素23aの画像データに基づいて、手前机23aが配置される、画像仮想展開領域14bの画素が特定される(S108)。 Next, the control unit 12 determines whether all the target objects have been processed (S104). In this case, since the process of the back person image 22d and the two image elements 23a and 23b has not been performed, for example, the image element 23a of the front desk is selected from the unprocessed objects (S106). The process is executed. Specifically, first, the image data of the image element 23 a of the front desk is appropriately converted into a size based on the distance data by the marker 21 by the control unit 12. Based on the converted image data of the front desk image element 23a, the pixel of the image virtual development area 14b where the front desk 23a is arranged is specified (S108).
次に、制御部12は、手前机の画像要素23aの画素データが配置される画像仮想展開領域14bの各画素に対して、深度バッファーに記憶されている深度と、手前机の画像要素23aの画素データに設定されている深度とを画素毎に順次比較する(S109)。このとき、深度バッファーは手前人物像22cの処理により、図6(b)の左図に示すように、手前人物像22cの領域以外の画素は深度「9」が記憶されており、その他の画素は深度「2」が記憶されている。このため、手前机の画像要素23aの各画素は、手前人物像22cの処理にて書き換えられた画素よりも深度が小さいので、手前机の画像要素23aの各画素はすべて、設定領域26か否かが判定される(S110)。 Next, for each pixel in the image virtual development area 14b in which the pixel data of the front desk image element 23a is arranged, the control unit 12 determines the depth stored in the depth buffer and the front desk image element 23a. The depth set in the pixel data is sequentially compared for each pixel (S109). At this time, the depth buffer stores the depth “9” in the pixels other than the area of the front human image 22c as shown in the left diagram of FIG. The depth “2” is stored. For this reason, each pixel of the front desk image element 23a has a depth smaller than that of the pixel rewritten by the process of the front person image 22c. Therefore, all the pixels of the front desk image element 23a are in the setting area 26. Is determined (S110).
第2実施形態の場合には、手前机の画像要素23aは全ての画素が設定領域に設定されているので、画像仮想展開領域14bの対象となる画素の画像データを、実画像保存記憶領域14cに記憶されている実画像20の画像データに書き換えるとともに(S111)、深度バッファーの深度を手前机の画像要素23aに設定されている深度「1」に更新する(S113)。 In the case of the second embodiment, since all the pixels of the image element 23a of the front desk are set in the setting area, the image data of the pixel that is the target of the image virtual development area 14b is converted into the real image storage area 14c. (S111) and the depth buffer depth is updated to the depth “1” set in the image element 23a of the front desk (S113).
このように、手前机の画像要素23aの各画素について、深度の比較、設定領域26か否かの判定がなされ、必要に応じて、実画像保存記憶領域14cの画像データが書き換えられ、深度バッファーの深度が更新されて、手前机の画像要素23aの全ての画素について処理が完了する(S107)。 In this way, for each pixel of the image element 23a on the front desk, the depth is compared and it is determined whether or not it is the setting area 26. If necessary, the image data in the actual image storage area 14c is rewritten, and the depth buffer Is updated, and the processing is completed for all the pixels of the image element 23a on the front desk (S107).
この状態にて、画像仮想展開領域14bには、図6(c)の左図に示すように、手前机と奥机との間に手前人物像22cが描かれた画像を形成する画像データが記憶され、深度バッファーには、手前机の画像要素23aの領域には深度「1」が、手前机の画像要素23aと重ならない手前人物像22cの領域には深度「2」が書き込まれている。ここで、画像要素の各画素の深度と深度バッファーの深度とを比較する工程(S109)から深度バッファーを更新する工程(S113)が、画像合成工程に含まれる。 In this state, in the image virtual development area 14b, as shown in the left diagram of FIG. 6C, image data forming an image in which the front person image 22c is drawn between the front desk and the back desk is stored. The depth buffer stores the depth “1” in the area of the front desk image element 23 a and the depth “2” in the area of the front human image 22 c that does not overlap the front desk image element 23 a. . Here, the step (S113) of updating the depth buffer from the step (S109) of comparing the depth of each pixel of the image element with the depth of the depth buffer is included in the image composition step.
次に制御部12は、対象となるオブジェクトが全て処理されたか否かを判定する(S104)。この場合には、奥人物像22d、奥机の画像要素23dの処理がなされていないので、処理が行われていないオブジェクトのうちから、例えば奥机の画像要素23bが選択されて(S106)、処理が実行される。具体的には、まず、奥机の画像要素22dの画像データが、制御部12により、マーカー21による距離データに基づいて適宜大きさに変換される。変換された奥机の画像要素22dの画像データに基づいて、奥机22dが配置される、画像仮想展開領域14bの画素が特定される(S108)。 Next, the control unit 12 determines whether all the target objects have been processed (S104). In this case, since the back person image 22d and the back desk image element 23d have not been processed, for example, the back desk image element 23b is selected from the unprocessed objects (S106). Processing is executed. Specifically, first, the image data of the back desk image element 22 d is converted into an appropriate size by the control unit 12 based on the distance data by the marker 21. Based on the converted image data of the back image element 22d, the pixel of the image virtual development area 14b where the back 22d is arranged is specified (S108).
次に、制御部12は、奥机の画像要素23bの画素データが配置される画像仮想展開領域14bの各画素に対して、深度バッファーに記憶されている深度と、奥机の画像要素23bの画素データに設定されている深度とを画素毎に順次比較する(S109)。このとき、深度バッファーは手前机の画像要素23aまでの処理により、図6(c)に示すように、手前人物像22c及び手前机の画像要素23aの領域以外の画素は深度「9」が記憶されており、手前人物像22cの領域は手前机の画像要素23aと重なならない画素に深度「2」が記憶されており、手前机の画像要素23aの画素には深度「1」が記憶されている。このため、深度「3」が記憶されている奥机の画像要素23bの各画素は、手前机の画像要素23aまでの処理にて書き換えられた画素は全て、深度が小さいので、奥机の画像要素23bの各画素のうち、手前人物像22cおよび手前机の画像要素23aと重なっていない画素について、設定領域26か否かが判定される(S110)。 Next, for each pixel in the image virtual development area 14b in which the pixel data of the back image element 23b is arranged, the control unit 12 determines the depth stored in the depth buffer and the back image element 23b. The depth set in the pixel data is sequentially compared for each pixel (S109). At this time, as shown in FIG. 6C, the depth buffer stores the depth “9” in the pixels other than the area of the front person image 22c and the front desk image element 23a by the processing up to the front desk image element 23a. In the area of the front person image 22c, the depth “2” is stored in the pixel that does not overlap the front desk image element 23a, and the depth “1” is stored in the pixel of the front desk image element 23a. ing. For this reason, all the pixels of the back image element 23b in which the depth “3” is stored are all rewritten in the process up to the image element 23a of the front desk. Among the pixels of the element 23b, it is determined whether or not the pixel that does not overlap with the front person image 22c and the front desk image element 23a is the setting region 26 (S110).
第2実施形態の場合には、奥机の画像要素23bは全ての画素が設定領域に設定されているので、画像仮想展開領域14bの対象となる画素の画像データを、実画像保存記憶領域14cに記憶されている実画像20の画像データに書き換えるとともに(S111)、深度バッファーの深度を奥机の画像要素23bに設定されている深度「3」に更新する(S113)。 In the case of the second embodiment, since all the pixels of the back image element 23b are set in the setting area, the image data of the pixel that is the target of the image virtual development area 14b is converted into the real image storage area 14c. (S111) and the depth buffer depth is updated to the depth “3” set in the back image element 23b (S113).
このように、奥机の画像要素23bの各画素について、深度の比較、設定領域26か否かの判定がなされ、必要に応じて、実画像保存記憶領域14cの画像データが書き換えられ、深度バッファーの深度が更新されて、奥机の画像要素23bの全ての画素について処理が完了する(S107)。 In this way, for each pixel of the back image element 23b, the depth is compared and it is determined whether or not it is the setting area 26. If necessary, the image data in the actual image storage area 14c is rewritten, and the depth buffer The depth is updated, and the processing is completed for all the pixels of the back image element 23b (S107).
この状態にて、画像仮想展開領域14bには、図6(d)に示すように、手前机と奥机との間に手前人物像22cが描かれた画像を形成する画像データが記憶され、深度バッファーには、手前机の画像要素23aの領域には深度「1」が、手前机の画像要素23aと重ならない手前人物像22cの領域には深度「2」が、手前机の画像要素23a及び手前人物像22cのいずれとも重ならない奥机の画像要素23bの領域には深度「3」が書き込まれている。ここで、画像要素の各画素の深度と深度バッファーの深度とを比較する工程(S109)から深度バッファーを更新する工程(S113)が、画像合成工程に含まれる。 In this state, in the image virtual development area 14b, as shown in FIG. 6D, image data forming an image in which a front person image 22c is drawn between the front desk and the back desk is stored, The depth buffer includes a depth “1” in the area of the front desk image element 23 a, a depth “2” in the area of the front human image 22 c that does not overlap the front desk image element 23 a, and the front desk image element 23 a. The depth “3” is written in the area of the image element 23b of the back desk that does not overlap with any of the front person image 22c. Here, the step (S113) of updating the depth buffer from the step (S109) of comparing the depth of each pixel of the image element with the depth of the depth buffer is included in the image composition step.
次に制御部12は、対象となるオブジェクトが全て処理されたか否かを判定する(S104)。この場合には、奥人物像22dの処理がなされていないので、処理が行われていない奥人物像22dが選択されて(S106)、処理が実行される。 Next, the control unit 12 determines whether all the target objects have been processed (S104). In this case, since the back person image 22d has not been processed, the back person image 22d that has not been processed is selected (S106), and the process is executed.
具体的には、まず、奥人物像22dの画像データが、制御部12により、撮影時に計測されて記憶されている距離データに基づいて適宜大きさに変換される。変換された奥人物像22dの画像データに基づいて、奥人物像22dが配置される、画像仮想展開領域14bの画素が特定される(S108)。 Specifically, first, the image data of the back person image 22d is converted into an appropriate size by the control unit 12 based on the distance data measured and stored at the time of shooting. Based on the converted image data of the back person image 22d, the pixel of the image virtual development area 14b where the back person image 22d is arranged is specified (S108).
次に、制御部12は、奥人物像22dの画素データが配置されると特定された、画像仮想展開領域14bの各画素に対して、深度バッファーに記憶されている深度と、奥人物像22dの画素データに設定されている深度とを画素毎に順次比較する(S109)。このとき、深度バッファーは奥机の画像要素23bまでの処理により、図6(d)に示すように、手前人物像22c、手前机の画像要素23a、奥机の画像要素23b以外の画素は深度「9」が記憶されており、手前人物像22cの領域は手前机の画像要素23aと重ならない画素に深度「2」が記憶されており、手前机の画像要素23aの画素には深度「1」が記憶されており、手前机の画像要素23a及び手前人物像22cのいずれとも重ならない奥机の画像要素23bの領域には深度「3」が記憶されている。このため、深度「3」が記憶されている奥机の画像要素23bの各画素は、奥机の画像要素23bまでの処理にて書き換えられた画素は全て、深度が小さいので、奥机の画像要素23bの各画素のうち、手前人物像22c、手前机の画像要素23a、奥机の画像要素23bのいずれとも重なっていない画素について、設定領域26か否かが判定される(S110)。 Next, the control unit 12 specifies the depth stored in the depth buffer and the back person image 22d for each pixel in the image virtual development area 14b, which is specified when the pixel data of the back person image 22d is arranged. The depth set in the pixel data is sequentially compared for each pixel (S109). At this time, the depth buffer performs processing up to the back desk image element 23b, and pixels other than the front person image 22c, the front desk image element 23a, and the back desk image element 23b are processed as shown in FIG. “9” is stored, the depth “2” is stored in the pixel of the front desk image 22c in the pixel that does not overlap the image element 23a of the front desk, and the depth “1” is stored in the pixel of the image element 23a of the front desk. ”Is stored, and the depth“ 3 ”is stored in the area of the image element 23 b of the back desk that does not overlap either the image element 23 a of the front desk or the front person image 22 c. For this reason, all the pixels of the back desk image element 23b in which the depth “3” is stored are all rewritten in the processing up to the back desk image element 23b, and therefore the depth of the back desk image element 23b is small. Among the pixels of the element 23b, it is determined whether or not the pixel that does not overlap any of the front person image 22c, the front desk image element 23a, and the back desk image element 23b is the setting area 26 (S110).
このとき、奥人物像22dは設定領域26ではないので、手前人物像22c、手前机の画像要素23a、奥机の画像要素23bのいずれとも重なっていない画素については、画像仮想展開領域14bの対象となる画素の画像データを、実画像保存記憶領域14cに記憶されている実画像20の画像データに書き換えるとともに(S111)、深度バッファーの深度を奥人物像22dに設定されている深度「4」に更新する(S113)。ここで、画像要素の各画素の深度と深度バッファーの深度とを比較する工程(S109)から深度バッファーを更新する工程(S113)が、画像合成工程に含まれる。 At this time, since the back person image 22d is not the setting area 26, pixels that do not overlap any of the front person image 22c, the front desk image element 23a, and the back desk image element 23b are targets of the image virtual development area 14b. Is rewritten with the image data of the real image 20 stored in the real image storage area 14c (S111), and the depth “4” set in the depth person image 22d is set in the depth buffer. (S113). Here, the step (S113) of updating the depth buffer from the step (S109) of comparing the depth of each pixel of the image element with the depth of the depth buffer is included in the image composition step.
次に制御部12は、対象となるオブジェクトが全て処理されたか否かを判定する(S104)。このとき、4つのオブジェクト22c、22d、23a、23bに対して処理が完了しているので、画像の合成処理を完了し、画像仮想展開領域14bに記憶されている画像の画素データに基づいて表示部16に画像を表示する(S115)。このとき表示部16には、図6(e)に示すような、画像合成装置1の視点位置から見た室内に2つの机が存在し、手前机と奥机との間に手前人物像22cが配置され、実画像の奥机と壁の間に奥人物像22dが配置された画像が表示されている。 Next, the control unit 12 determines whether all the target objects have been processed (S104). At this time, since the processing has been completed for the four objects 22c, 22d, 23a, and 23b, the image composition processing is completed, and display is performed based on the pixel data of the image stored in the image virtual development area 14b. An image is displayed on the unit 16 (S115). At this time, the display unit 16 has two desks in the room viewed from the viewpoint position of the image synthesizing apparatus 1 as shown in FIG. 6E, and the front person image 22c is located between the front desk and the back desk. Is displayed, and an image in which the back person image 22d is placed between the back desk and the wall of the real image is displayed.
第2実施形態の画像合成方法によれば、撮影により取得された、合成情報に基づいて、撮影した実画像20の画像データを、仮想画像22c、22d及び画像要素23a、23bのうちの視点からの距離が短い方の画像データに書き換えるとともに、視点からの距離が短い方が設定領域26に設定されている場合には実画像20の画像データに書き換えて合成するので、単純に視点からの距離だけに基づいて実画像20と仮想画像22c、22dとが合成されるだけでなく、視点からの距離が短い領域が設定領域26の場合には必ず実画像20を前面に配置することが可能である。 According to the image composition method of the second embodiment, the image data of the photographed real image 20 is obtained from the viewpoint of the virtual images 22c and 22d and the image elements 23a and 23b based on the composition information acquired by photographing. Is rewritten to the image data with the shorter distance, and if the shorter distance from the viewpoint is set in the setting area 26, the image data of the actual image 20 is rewritten and combined, so the distance from the viewpoint is simply The real image 20 and the virtual images 22c and 22d are not only synthesized based on the image, but the real image 20 can always be placed in the front when the setting region 26 has a short distance from the viewpoint. is there.
また、合成画像24を生成するための合成情報には、実画像20と合成する仮想画像22c、22d、及び、実画像20に含まれる画像要素23a、23bを特定する情報、実画像20、仮想画像22c、22d、画像要素23a、23bの、撮影の視点からの距離を示す距離情報、予め実画像20の画像データを配置することが設定されている設定領域26を特定する情報、が含まれているので、撮影時の状況に応じた情報を取得することができるとともに、合成情報を撮影により取得することが可能である。このため、より現実に即した合成画像24を容易に生成することが可能である。 The composite information for generating the composite image 24 includes virtual images 22c and 22d to be combined with the real image 20, information specifying the image elements 23a and 23b included in the real image 20, the real image 20, and the virtual image. The distance information indicating the distance from the shooting viewpoint of the images 22c and 22d and the image elements 23a and 23b, and information for specifying the setting area 26 in which the image data of the actual image 20 is set in advance are included. Therefore, it is possible to acquire information according to the situation at the time of shooting, and it is possible to acquire composite information by shooting. For this reason, it is possible to easily generate the composite image 24 that is more realistic.
また、実画像20に含まれる画像要素23a、23bが設定領域26に設定されているので、実画像20に仮想画像22c、22dを重ね合わせた後に、実画像20を上書きしたい場合には、容易に実画像20を前面に配置することが可能である。 In addition, since the image elements 23a and 23b included in the real image 20 are set in the setting area 26, it is easy to overwrite the real image 20 after the virtual images 22c and 22d are overlaid on the real image 20. In addition, the actual image 20 can be arranged on the front surface.
また、画像仮想展開領域14bに記憶されている画像データの各画素に対応する距離情報としての深度が画素情報記憶領域14dに記憶されており、画像仮想展開領域14bの画像データが書き換えられる毎に、書き換えた画像データの深度に画素情報記憶領域14dの深度が書き換えられるので、画素情報記憶領域14dに記憶されている深度を常に画像仮想展開領域14bの画像データと対応させて最新の状態に更新しておくことが可能である。 Further, the depth as distance information corresponding to each pixel of the image data stored in the image virtual development area 14b is stored in the pixel information storage area 14d, and each time the image data in the image virtual development area 14b is rewritten. Since the depth of the pixel information storage area 14d is rewritten to the depth of the rewritten image data, the depth stored in the pixel information storage area 14d is always updated to correspond to the image data of the image virtual development area 14b. It is possible to keep it.
また、画像仮想展開領域14bに記憶された実画像20の画像データを構成する各画素は、視点からの距離が無限遠に設定されているので、撮影された実画像20上に、合成すべき仮想画像22c、22d及び設定領域26に対応づけられた画像要素23a、23bを配置することが可能である。このため、撮影した実画像20を元画像として画像データを書き換えつつ画像を合成することが可能である。 In addition, each pixel constituting the image data of the actual image 20 stored in the image virtual development area 14b is set to an infinite distance from the viewpoint, and therefore should be synthesized on the captured actual image 20. Image elements 23a and 23b associated with the virtual images 22c and 22d and the setting area 26 can be arranged. For this reason, it is possible to synthesize an image while rewriting image data using the captured real image 20 as an original image.
また、画像を合成する際には、画素毎に画素情報記憶領域14dの深度と、仮想画像22c、22dに設定されている深度及び画像要素23a、23bに設定されている深度とが比較されるので、画像仮想展開領域14bに対応して常に最新の状態に更新されている画像仮想展開領域14bの各画素の深度に対する、合成する仮想画像22c、22dの深度及び画像要素23a、23bの深度とが比較されて、画素ごとに、画像仮想展開領域14bの画像データを、より正確に視点に近い側の画像データに書き換えることが可能である。このため、さらに現実に即した合成画像24を生成することが可能である。 Further, when compositing images, the depth of the pixel information storage area 14d is compared for each pixel with the depth set in the virtual images 22c and 22d and the depth set in the image elements 23a and 23b. Therefore, the depth of each of the virtual images 22c and 22d to be combined and the depth of the image elements 23a and 23b with respect to the depth of each pixel of the image virtual development region 14b that is always updated to the latest state corresponding to the image virtual development region 14b. Are compared, and the image data of the image virtual development area 14b can be more accurately rewritten to image data closer to the viewpoint for each pixel. Therefore, it is possible to generate a composite image 24 that is more realistic.
上記第2実施形態においては、仮想画像22を構成する1つの画素の深度と深度バッファーの深度とを比較し、仮想画像22の深度の方が小さい(視点に近い)場合に、対象となる画素が設定領域26に含まれるか否かを判定することとしたが、これに限るものではない。たとえば、撮影後に初期化した深度バッファーに、予め設定領域に含まれる画素に設定された深度を記憶し、深度バッファーの設定領域26に対応する画素の深度が書き換えられた深度バッファーと、仮想画像22の深度を比較して画像を合成しても良い。 In the second embodiment, the depth of one pixel constituting the virtual image 22 is compared with the depth of the depth buffer, and when the depth of the virtual image 22 is smaller (close to the viewpoint), the target pixel However, the present invention is not limited to this. For example, a depth buffer that is initialized after shooting is stored in advance with depths set in pixels included in the setting area, and a depth buffer in which the depth of pixels corresponding to the setting area 26 in the depth buffer is rewritten, and the virtual image 22 Images may be synthesized by comparing the depths of the two.
また、上記2つの実施形態では、いずれも被写体にマーカー21が設けられている例について説明したが、これに限るものではない。たとえば、GPSなどにより撮影位置を特定し、デジタルコンパスなどにより撮影方向を特定し、特定された撮影位置と撮影方向とに基づいて記憶領域に予め記憶されている仮想画像及び設定領域を特定するとともに、仮想画像及び設定領域に対応づけられた合成情報を取得して合成画像を生成してもよい。 In the above two embodiments, the example in which the marker 21 is provided on the subject has been described. However, the present invention is not limited to this. For example, the shooting position is specified by GPS or the like, the shooting direction is specified by a digital compass or the like, and the virtual image and the setting area stored in advance in the storage area are specified based on the specified shooting position and shooting direction. Alternatively, composite information associated with the virtual image and the setting area may be acquired to generate a composite image.
また、仮想画像の絶対座標を予め記憶領域に記憶しておき、撮影位置や撮影方向の特定と同時に3Dレーザスキャナなどで撮影された画面の範囲に含まれる壁などの物体と撮像部との距離(画素ごとの各点と撮像部との距離)を測定し、仮想画像の絶対座標が画像合成装置の撮像部が撮影しているはずの座標の範囲に含まれる場合であって、現実の壁などの物体と撮像部との距離よりも仮想画像と撮像部との距離の方が近ければ、対応する画素の部分について当該仮想画像を撮影された画像に重ね合わせて表示することとしても良い。 Also, the absolute coordinates of the virtual image are stored in the storage area in advance, and the distance between the imaging unit and an object such as a wall included in the range of the screen shot by a 3D laser scanner or the like at the same time as specifying the shooting position and shooting direction (Distance between each point for each pixel and the image pickup unit) is measured, and the absolute coordinates of the virtual image are included in the range of coordinates that the image pickup unit of the image composition device should have taken, If the distance between the virtual image and the imaging unit is closer than the distance between the object and the imaging unit, the virtual image may be superimposed on the captured image and displayed for the corresponding pixel portion.
具体的には、例えば、実物のビルの壁に、仮想の”窓”を合成するとする。このとき、窓枠として、複数種類のデザインの仮想画像が画像合成装置に記憶されており、利用者が画像合成装置を操作して、窓枠のデザインを切替えて、各々の窓枠と壁と景色とを合成した合成画像を表示する。このような画像合成装置を用いると、室内の様々な角度から窓和訓デザインを確認することを可能とし、利用者が最も見栄えの良い窓枠のデザインを選択することが可能となる。このとき、景色が窓枠に合わせて正しく切り取られるようにするため、窓枠の周囲の壁を設定(マスキング)領域に設定しておく。そして、上記のようにマーカーを使用する場合には、マーカーにより、合成する窓枠デザインの特定と、窓枠の取り付け位置と撮像部との相対的な位置関係を示す情報の取得と、をすることが可能となる。 Specifically, for example, it is assumed that a virtual “window” is synthesized on the wall of a real building. At this time, as the window frame, virtual images of a plurality of types of designs are stored in the image composition device, and the user operates the image composition device to switch the design of the window frame. Displays a composite image that combines the scenery. When such an image composition device is used, it is possible to check the window harmony design from various angles in the room, and the user can select the design of the window frame with the best appearance. At this time, the wall around the window frame is set as a setting (masking) region so that the scenery is correctly cut out in accordance with the window frame. When using the marker as described above, the marker specifies the window frame design to be synthesized and acquires information indicating the relative positional relationship between the window frame mounting position and the imaging unit. It becomes possible.
一方、マーカーを用いない場合には、合成する窓枠デザインを例えば画像合成装置が備えるユーザーインターフェースにて、選択及び切り替えることとなる。また、窓枠の取り付け位置と撮像部との相対的な位置関係を示す情報は、例えば、取り付け位置の緯度・経度があらかじめ分かっている場合には、カメラの緯度・経度をGPSで取得することにより、撮像部の相対的な位置を得ることが可能となる。また、別の方法としては、例えば、撮像部の向きをデジタルコンパスで取得し、取り付け位置までの距離をレーザー距離計などで計測して、座標変換を行っても相対的な位置の上方を得ることが可能である。 On the other hand, when the marker is not used, the window frame design to be combined is selected and switched using, for example, a user interface provided in the image combining apparatus. The information indicating the relative positional relationship between the window frame attachment position and the imaging unit is obtained, for example, when the latitude / longitude of the attachment position is known in advance. Thus, it is possible to obtain the relative position of the imaging unit. As another method, for example, the orientation of the imaging unit is acquired with a digital compass, the distance to the mounting position is measured with a laser distance meter, and the relative position is obtained even if coordinate conversion is performed. It is possible.
上記実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれることはいうまでもない。 The above embodiment is for facilitating the understanding of the present invention, and is not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.
上記実施形態においては、画像合成装置1の視点を、第1実施形態の窓枠が設けられる壁、及び、第2実施形態の最も奥に位置する室内の壁に対し、正面に配置した例について説明したが、仮想画像が3次元にて表現可能なデータを有していれば、画像合成装置1の視点を、壁に対して傾いた位置に設定しても構わない。画像合成装置1の視点を、壁に対して傾いた位置に設定した場合には、傾きに対応させて仮想画像や設定領域の形状が、位置情報に基づいて変更される。 In the embodiment described above, the viewpoint of the image composition device 1 is arranged in front of the wall on which the window frame of the first embodiment is provided and the indoor wall located at the innermost position of the second embodiment. As described above, if the virtual image has data that can be expressed in three dimensions, the viewpoint of the image composition device 1 may be set at a position inclined with respect to the wall. When the viewpoint of the image composition device 1 is set at a position inclined with respect to the wall, the virtual image and the shape of the setting area are changed based on the position information in correspondence with the inclination.
上記実施形態では、静止画像を合成する例について説明したが、動画を合成する場合には、動画のフレームレートに合わせて、合成した画像を生成して表示すればよい。例えば、フレームレートが15fpsであれば、1秒間に15回、上記のように画像の合成処理を繰り返し表示部の画像を書き換えることにより実現可能である。 In the above embodiment, an example of combining still images has been described. However, when combining moving images, a combined image may be generated and displayed in accordance with the frame rate of the moving images. For example, if the frame rate is 15 fps, it can be realized by rewriting the image on the display unit by repeating the image composition processing as described above 15 times per second.
1 画像合成装置、10 撮像部、12 制御部、14 記憶部、
14a 合成情報記憶領域、14b 画像仮想展開領域、
14c 実画像保存記憶領域、14d 画素情報記憶領域、16 表示部、
18 操作部、20 実画像、21 マーカー、22 仮想画像、
22a 窓枠の仮想画像、22b 景色の仮想画像、22c 手前人物像、
22d 奥人物像、23a 手前机の画像要素、23b 奥机の画像要素、
24 合成画像、26 設定領域
DESCRIPTION OF SYMBOLS 1 Image composition apparatus, 10 imaging part, 12 control part, 14 memory | storage part,
14a composite information storage area, 14b image virtual development area,
14c real image storage area, 14d pixel information storage area, 16 display section,
18 operation unit, 20 real image, 21 marker, 22 virtual image,
22a Virtual image of window frame, 22b Virtual image of scenery, 22c Front person image,
22d Back person image, 23a Front desk image element, 23b Back desk image element,
24 composite image, 26 setting area
Claims (9)
撮影した実画像を構成する画像データを記憶する実画像記憶工程と、
撮影により取得された情報に基づいて前記実画像と合成する仮想画像を特定する情報と、予め前記実画像の画像データを配置することが設定されている設定領域を特定する情報とを含む、前記実画像と前記仮想画像とを合成するための合成情報を取得する情報取得工程と、
前記合成情報に基づいて前記実画像と前記仮想画像とを合成するときに、特定された前記設定領域に前記実画像の前記画像データを配置して合成画像を生成する画像合成工程と、
を有することを特徴とする画像合成方法。 A shooting process for shooting a subject;
A real image storage step of storing image data constituting the photographed real image;
Including information for specifying a virtual image to be combined with the real image based on information acquired by shooting, and information for specifying a setting area in which image data of the real image is set in advance. An information acquisition step of acquiring combined information for combining the real image and the virtual image;
An image compositing step for generating a composite image by arranging the image data of the real image in the specified setting area when compositing the real image and the virtual image based on the composite information;
An image synthesizing method characterized by comprising:
前記合成情報には、前記仮想画像に設定されている前記撮影の視点からの距離及び前記設定領域に設定されている前記視点からの距離、を示す距離情報が含まれており、
前記画像合成工程では、前記仮想画像の領域及び前記設定領域のうちの、前記距離情報として前記視点からの距離がより長く設定されている領域の画像データから順に、前記実画像の前記画像データが書き換えられていくことを特徴とする画像合成方法。 The image composition method according to claim 1,
The composite information includes distance information indicating a distance from the viewpoint of shooting set in the virtual image and a distance from the viewpoint set in the setting area,
In the image compositing step, the image data of the real image is sequentially from the image data of the region in which the distance from the viewpoint is set longer as the distance information in the virtual image region and the setting region. An image composition method characterized by being rewritten.
撮影された前記実画像を構成する前記画像データは、2つの画像記憶領域に記憶され、
前記画像合成工程では、前記合成情報に基づいて、前記2つの画像記憶領域のうちの一方の画像記憶領域を作業領域として、記憶された実画像の前記画像データを書き換えて合成画像を生成し、
前記設定領域に前記実画像の前記画像データを配置する場合には、前記一方の画像記憶領域に記憶される前記実画像の前記画像データを、他方の前記画像記憶領域に記憶されている前記画像データに書き換えることを特徴とする画像合成方法。 The image composition method according to claim 1 or 2,
The image data constituting the photographed real image is stored in two image storage areas,
In the image composition step, based on the composition information, one image storage area of the two image storage areas is used as a work area, and the image data of the stored real image is rewritten to generate a composite image,
When the image data of the real image is arranged in the setting area, the image data of the real image stored in the one image storage area is stored in the other image storage area. An image composition method characterized by rewriting data.
撮影した実画像を構成する画像データを記憶する実画像記憶工程、
撮影により取得された情報に基づいて、前記実画像と合成する仮想画像、及び、実画像に含まれる画像要素、を特定する情報と、前記実画像、前記仮想画像、前記画像要素の、前記撮影の視点からの距離を示す距離情報と、予め前記実画像の画像データを配置することが設定されている設定領域を特定する情報と、を含み、前記実画像と前記仮想画像とを合成するための合成情報を取得する情報取得工程、及び、
前記合成情報に基づいて、前記実画像に前記仮想画像及び前記画像要素を合成して合成画像を生成する画像合成工程、を有し、
前記画像合成工程は、前記合成情報に基づいて、撮影した前記実画像の画像データに、前記仮想画像の画像データ及び前記画像要素の画像データのうちの前記視点からの距離が短い方の画像データを書き込むとともに、前記視点からの距離が短い方が前記設定領域に設定されている場合には前記実画像の画像データを書き込むことを特徴とする画像合成方法。 A shooting process for shooting a subject,
A real image storage step for storing image data constituting the photographed real image;
Based on information acquired by photographing, information for specifying a virtual image to be combined with the real image and an image element included in the real image, and the photographing of the real image, the virtual image, and the image element For synthesizing the actual image and the virtual image, including distance information indicating a distance from the viewpoint of the image and information specifying a setting area in which image data of the actual image is set in advance. An information acquisition step of acquiring composite information of, and
An image synthesis step of generating a synthesized image by synthesizing the virtual image and the image element on the real image based on the synthesis information;
In the image synthesis step, based on the synthesis information, image data of the captured real image is image data having a shorter distance from the viewpoint of the image data of the virtual image and the image data of the image element. , And if the shorter distance from the viewpoint is set in the setting area, the image data of the actual image is written.
前記画像要素が、前記設定領域に設定されていることを特徴とする画像合成方法。 The image composition method according to claim 4,
An image composition method, wherein the image element is set in the setting area.
撮影された前記実画像を構成する前記画像データは、2つの画像記憶領域に記憶され、
前記画像合成工程では、前記合成情報に基づいて、前記2つの画像記憶領域のうちの一方の画像記憶領域を作業領域として、記憶された実画像の前記画像データを書き換えて合成画像を生成し、
前記設定領域に前記実画像の前記画像データを配置する場合には、前記一方の画像記憶領域に記憶される前記実画像の前記画像データを、他方の前記画像記憶領域に記憶されている前記画像データに書き換えることを特徴とする画像合成方法。 The image composition method according to claim 4 or 5, wherein:
The image data constituting the photographed real image is stored in two image storage areas,
In the image composition step, based on the composition information, one image storage area of the two image storage areas is used as a work area, and the image data of the stored real image is rewritten to generate a composite image,
When the image data of the real image is arranged in the setting area, the image data of the real image stored in the one image storage area is stored in the other image storage area. An image composition method characterized by rewriting data.
前記合成画像、前記実画像、及び、前記仮想画像は、複数の画素にて形成されており、
前記設定領域は、前記画素毎に設定されており、
前記一方の画像記憶領域の各画素に対応させて、各画素の前記距離情報を記憶する距離情報記憶領域を有し、
前記画像合成工程にて、前記一方の画像記憶領域に記憶された前記画像データが書き換えられた場合には、前記距離情報記憶領域の前記距離情報が、前記書き換えた前記画像データの前記距離情報に書き換えられることを特徴とする画像合成方法。 The image composition method according to claim 6, comprising:
The composite image, the real image, and the virtual image are formed of a plurality of pixels,
The setting area is set for each pixel,
A distance information storage area for storing the distance information of each pixel in correspondence with each pixel of the one image storage area;
When the image data stored in the one image storage area is rewritten in the image composition step, the distance information in the distance information storage area is changed to the distance information of the rewritten image data. An image composition method characterized by being rewritten.
前記一方の画像記憶領域に記憶された前記実画像の前記画像データを構成する各画素は、前記視点からの距離が無限遠に設定されていることを特徴とする画像合成装置。 The image composition method according to claim 7, wherein
An image synthesizing apparatus, wherein each pixel constituting the image data of the real image stored in the one image storage area has a distance from the viewpoint set to infinity.
前記画像合成工程では、前記画素毎に前記距離情報記憶領域の前記距離情報と、前記仮想画像に設定されている前記距離情報または前記画像要素に設定されている前記距離情報とを、比較することを特徴とする画像合成方法。 The image composition method according to claim 7 or 8,
In the image composition step, the distance information in the distance information storage area is compared for each pixel with the distance information set in the virtual image or the distance information set in the image element. An image composition method characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011038747A JP5776218B2 (en) | 2011-02-24 | 2011-02-24 | Image composition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011038747A JP5776218B2 (en) | 2011-02-24 | 2011-02-24 | Image composition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012174218A true JP2012174218A (en) | 2012-09-10 |
JP5776218B2 JP5776218B2 (en) | 2015-09-09 |
Family
ID=46977029
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011038747A Active JP5776218B2 (en) | 2011-02-24 | 2011-02-24 | Image composition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5776218B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015210763A (en) * | 2014-04-30 | 2015-11-24 | 株式会社モノコト | Image processing method, and image processing program |
JPWO2014192612A1 (en) * | 2013-05-31 | 2017-02-23 | 日本電気株式会社 | Image recognition apparatus, processing method thereof, and program |
JP2018528509A (en) * | 2015-07-08 | 2018-09-27 | コリア ユニバーシティ リサーチ アンド ビジネス ファウンデーションKorea University Research And Business Foundation | Projected image generation method and apparatus, and mapping method between image pixel and depth value |
JPWO2019123509A1 (en) * | 2017-12-18 | 2019-12-26 | ガンホー・オンライン・エンターテイメント株式会社 | Terminal device, system, program and method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11203444A (en) * | 1998-01-09 | 1999-07-30 | Mitsubishi Electric Corp | Image compositing device |
JPH11259682A (en) * | 1997-10-22 | 1999-09-24 | Sony Corp | Processor and method for image processing, and providing medium |
JP2000201298A (en) * | 1999-01-07 | 2000-07-18 | Sony Corp | Image processor, image processing method and providing medium |
JP2004178554A (en) * | 2002-09-30 | 2004-06-24 | Canon Inc | Video compositing apparatus and method |
JP2004227332A (en) * | 2003-01-23 | 2004-08-12 | Hitachi Ltd | Information display method |
JP2006343953A (en) * | 2005-06-08 | 2006-12-21 | Canon Inc | Image processing method and image processing device |
JP2009025918A (en) * | 2007-07-17 | 2009-02-05 | Canon Inc | Image processor and image processing method |
-
2011
- 2011-02-24 JP JP2011038747A patent/JP5776218B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11259682A (en) * | 1997-10-22 | 1999-09-24 | Sony Corp | Processor and method for image processing, and providing medium |
JPH11203444A (en) * | 1998-01-09 | 1999-07-30 | Mitsubishi Electric Corp | Image compositing device |
JP2000201298A (en) * | 1999-01-07 | 2000-07-18 | Sony Corp | Image processor, image processing method and providing medium |
JP2004178554A (en) * | 2002-09-30 | 2004-06-24 | Canon Inc | Video compositing apparatus and method |
JP2004227332A (en) * | 2003-01-23 | 2004-08-12 | Hitachi Ltd | Information display method |
JP2006343953A (en) * | 2005-06-08 | 2006-12-21 | Canon Inc | Image processing method and image processing device |
JP2009025918A (en) * | 2007-07-17 | 2009-02-05 | Canon Inc | Image processor and image processing method |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2014192612A1 (en) * | 2013-05-31 | 2017-02-23 | 日本電気株式会社 | Image recognition apparatus, processing method thereof, and program |
US10650264B2 (en) | 2013-05-31 | 2020-05-12 | Nec Corporation | Image recognition apparatus, processing method thereof, and program |
JP2015210763A (en) * | 2014-04-30 | 2015-11-24 | 株式会社モノコト | Image processing method, and image processing program |
JP2018528509A (en) * | 2015-07-08 | 2018-09-27 | コリア ユニバーシティ リサーチ アンド ビジネス ファウンデーションKorea University Research And Business Foundation | Projected image generation method and apparatus, and mapping method between image pixel and depth value |
JPWO2019123509A1 (en) * | 2017-12-18 | 2019-12-26 | ガンホー・オンライン・エンターテイメント株式会社 | Terminal device, system, program and method |
US10748341B2 (en) | 2017-12-18 | 2020-08-18 | GungHo Online Entertainment, Inc. | Terminal device, system, program and method for compositing a real-space image of a player into a virtual space |
Also Published As
Publication number | Publication date |
---|---|
JP5776218B2 (en) | 2015-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101694689B1 (en) | Method for generating video data and image photographing device thereof | |
JP6625745B2 (en) | Image processing device | |
EP1406233A2 (en) | Display apparatus, image processing apparatus and image processing method, imaging apparatus, and programm | |
CN103534727A (en) | Panorama processing | |
JP2016062486A (en) | Image generation device and image generation method | |
JP2007233996A (en) | Image compositing apparatus, image compositing method, image compositing program and recording medium | |
JP2023509137A (en) | Systems and methods for capturing and generating panoramic 3D images | |
JP5037061B2 (en) | Image output apparatus, image list display system, program, recording medium, and image output method | |
CN110610531A (en) | Image processing method, image processing apparatus, and recording medium | |
CN110880204A (en) | Virtual vegetation display method and device, computer equipment and storage medium | |
JP5776218B2 (en) | Image composition method | |
KR102003383B1 (en) | Method and apparatus for shooting image in an electronic device | |
CN112616048A (en) | AR glasses, display method and system thereof, and image processing method and device | |
JP4854965B2 (en) | Display device | |
JP5361758B2 (en) | Image generation method, image generation apparatus, and program | |
KR101574636B1 (en) | Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage | |
WO2018025825A1 (en) | Image capture system | |
JP6635573B2 (en) | Image processing system, image processing method, and program | |
US20190066366A1 (en) | Methods and Apparatus for Decorating User Interface Elements with Environmental Lighting | |
JP2019101563A (en) | Information processing apparatus, information processing system, information processing method, and program | |
KR20110088275A (en) | Mobile communication terminal had a function of transformation for a picture | |
CN110060349B (en) | Method for expanding field angle of augmented reality head-mounted display equipment | |
US20230177744A1 (en) | Augmented reality system and method for substrates, coated articles, insulating glass units, and/or the like | |
JPWO2020162264A1 (en) | Shooting system, shooting location setting device, shooting device and shooting method | |
JP2014022982A (en) | Electronic apparatus having photographing function |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141021 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150225 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150317 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150508 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20150519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150609 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150622 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5776218 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |