JP5691630B2 - Image composition method - Google Patents
Image composition method Download PDFInfo
- Publication number
- JP5691630B2 JP5691630B2 JP2011038750A JP2011038750A JP5691630B2 JP 5691630 B2 JP5691630 B2 JP 5691630B2 JP 2011038750 A JP2011038750 A JP 2011038750A JP 2011038750 A JP2011038750 A JP 2011038750A JP 5691630 B2 JP5691630 B2 JP 5691630B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- marker
- position information
- area
- shooting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Description
本発明は、撮影した実画像と予め用意した仮想画像とを合成する画像合成方法に関する。 The present invention relates to an image composition method for compositing a photographed real image and a virtual image prepared in advance.
撮影した実画像と予め用意した仮想画像などの付加画像とを合成する画像合成方法としては、例えば、撮影する被写体がマーカーを有しており、マーカーが配置されている実表面に仮想画像を、実質的に同一平面となるように合成して合成画像を生成する画像合成方法が知られている(例えば、特許文献1参照)。 As an image composition method for compositing a captured real image and an additional image such as a virtual image prepared in advance, for example, the subject to be photographed has a marker, and the virtual image is placed on the actual surface where the marker is arranged. An image composition method is known in which a composite image is generated by combining so as to be substantially in the same plane (see, for example, Patent Document 1).
上記従来の画像合成方法は、仮想画像を、実表面に同一平面となるように配置しているが、実画像と仮想画像とは、同一平面内における位置も、より正確に合わせて合成したい場合がある。このため、予め用意した仮想画像の各画素のデータを撮影した実画像上の正確な位置に配置する場合には、作業が煩雑で、多大な時間とコストを費やさなければならないという課題がある。 In the above conventional image composition method, the virtual image is arranged on the real surface so as to be on the same plane, but the real image and the virtual image are to be synthesized by matching the position in the same plane more accurately. There is. For this reason, when arranging the data of each pixel of a virtual image prepared in advance at an accurate position on a captured real image, there is a problem that work is complicated and a great deal of time and cost must be spent.
本発明は、かかる課題に鑑みてなされたものであり、その目的とするところは、仮想画像を、撮影された実画像により正確かつ容易に配置して合成することが可能な画像合成方法を提供することにある。 The present invention has been made in view of such problems, and an object of the present invention is to provide an image composition method capable of accurately and easily arranging and compositing a virtual image with a captured real image. There is to do.
かかる目的を達成するために本発明の画像合成方法は、第1領域を撮影する際の撮影範囲内に、位置を特定可能な第1位置情報被写体を含ませて前記第1領域を撮影して第1領域画像の画像データを生成する撮影工程と、
前記第1領域画像と、前記第1位置情報被写体にて特定される第1位置と、を対応づけて記憶する記憶工程と、
前記第1領域を含む第2領域に第2位置情報被写体を含ませて前記第2領域を撮影した第2領域画像の画像データに、前記第2位置情報被写体にて特定される第2位置と前記第1位置とに基づいて位置決めして前記第1領域画像の画像データを合成する画像合成工程と、
を有し、
前記第1領域の撮影時及び前記第2領域の撮影時には、撮影の視点と前記第1位置情報被写体及び前記第2位置情報被写体との距離を計測するとともに撮影の方向を特定し、
特定した前記視点との距離、前記撮影の方向、及び、前記第1位置情報被写体及び前記第2位置情報被写体のマーカー位置情報に基づいて、前記第2領域画像の画像データに合成する前記第1領域画像の画像データを加工して、前記第1領域画像と合成することを特徴とする画像合成方法である。
In order to achieve such an object, the image composition method of the present invention shoots the first area by including a first position information subject whose position can be specified within the shooting range when shooting the first area. A photographing step of generating image data of the first region image;
A storage step of storing the first region image and the first position specified by the first position information subject in association with each other;
A second position specified by the second position information subject in image data of a second region image obtained by photographing the second area by including the second position information subject in the second area including the first area; An image combining step of combining the image data of the first region image by positioning based on the first position;
Have
During shooting of the first region and shooting of the second region, the distance between the shooting viewpoint and the first position information subject and the second position information subject is measured and the shooting direction is specified,
Based on the identified distance from the viewpoint, the shooting direction, and the marker position information of the first position information subject and the second position information subject, the first region to be combined with the image data of the second region image An image composition method characterized by processing image data of a region image and combining it with the first region image .
このような画像合成方法によれば、第1位置情報被写体により位置が特定された第1領域画像と、第2位置情報被写体により位置が特定され、第1領域を含む第2領域を撮影した第2領域画像と、が第2位置と第1位置とに基づいて位置決めして合成されるので、第1領域画像を第2領域画像の、より正確な位置に合成することが可能である。このとき、第1領域画像には第1位置情報被写体が含まれており、第2領域画像には第2位置情報被写体が含まれているので、第1領域画像及び第2領域画像を撮影するだけで第1領域画像及び第2領域画像の位置を容易に特定し、第1領域画像と第2領域画像とを位置的に対応づけることが可能である。このため、第1領域画像を第2領域画像に、より正確かつ容易に配置して合成することが可能である。 According to such an image composition method, the first area image whose position is specified by the first position information subject and the second area where the position is specified by the second position information subject and the second area including the first area are photographed. Since the two-region image is positioned and synthesized based on the second position and the first position, the first region image can be synthesized at a more accurate position of the second region image. At this time, the first region image includes the first position information subject, and the second region image includes the second position information subject. Therefore, the first region image and the second region image are captured. It is possible to easily specify the positions of the first area image and the second area image, and to associate the first area image and the second area image with each other. For this reason, it is possible to arrange | position and synthesize | combine a 1st area image on a 2nd area image more correctly and easily.
また、第2領域画像の画像データに合成する第1領域画像の画像データは、第1領域の撮影時及び第2領域の撮影時に計測した、撮影の視点と第1位置情報被写体及び第2位置情報被写体との距離、撮影の方向、及び、第1位置情報被写体と第2位置情報被写体のマーカー位置情報に基づいて加工するので、第2領域画像と第1領域画像とが、撮影する際の距離及び撮影方向が互いに相違したとしても、第1領域画像を第2領域画像に対応させて加工し、同じ距離及び同じ方向から撮影したような画像とすることが可能であり、一度に撮影したような合成画像を生成することが可能である。
The image data of the first region image to be combined with the image data of the second area image was measured at the time of photographing the photographing and the second region of the first region, viewpoint and first position information object and the second position of the photographing Since processing is performed based on the distance to the information subject, the shooting direction, and the marker position information of the first position information subject and the second position information subject, the second region image and the first region image are used when shooting. Even if the distance and the shooting direction are different from each other, it is possible to process the first area image in correspondence with the second area image to obtain an image shot from the same distance and the same direction. Such a composite image can be generated.
かかる画像合成方法であって、前記第1領域画像は、前記第1位置情報被写体に対応づけられたマーカー位置情報、撮影時に計測された前記視点との距離、及び、前記撮影の方向に基づいて、撮影する被写体を立体的にモデル化した立体モデルに対応づけて記憶されていることが望ましい。 In this image composition method, the first region image is based on marker position information associated with the first position information subject, a distance from the viewpoint measured at the time of photographing, and a direction of the photographing. The object to be photographed is preferably stored in association with a three-dimensional model obtained by modeling a three-dimensional model.
このような画像合成装置によれば、第1領域画像は、第1位置情報被写体に対応づけられたマーカー位置情報、撮影時に計測された視点との距離、及び、撮影の方向に基づいて、立体モデルに対応づけて記憶されているので、撮影された二次元の第1領域画像を、撮影する被写体を立体的にモデル化した立体モデルに対応づけることにより、第1領域画像に三次元の座標情報を付して記憶しておくことが可能である。 According to such an image composition device, the first region image is based on the marker position information associated with the first position information subject, the distance from the viewpoint measured at the time of photographing, and the direction of photographing. Since it is stored in association with the model, the two-dimensional first area image that has been photographed is associated with a three-dimensional model in which the subject to be photographed is three-dimensionally modeled. Information can be added and stored.
本発明によれば、仮想画像を撮影された実画像により正確に配置して容易に合成することが可能な画像合成方法を提供することが可能である。 ADVANTAGE OF THE INVENTION According to this invention, it is possible to provide the image composition method which can arrange | position easily and synthesize | combine a virtual image correctly with the image | photographed real image.
本実施形態の画像合成方法は、例えば、竣工後のコンクリート構造物の壁などを撮影して、撮影した壁の施工時における配筋の状況を合成画像にて表示する場合などに用いられる。 The image composition method according to the present embodiment is used, for example, when photographing a wall of a concrete structure after completion and displaying the state of bar arrangement during construction of the photographed wall as a composite image.
以下、本発明の一実施形態について図面を用いて詳細に説明する。
図1は、本発明に係る画像合成方法を実現するための装置の一例を示すブロック図である。
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing an example of an apparatus for realizing an image composition method according to the present invention.
本実施形態の画像合成方法を実現するための画像合成装置1は、被写体を撮影する撮像部10と、撮影した被写体の実画像と予め形成されている仮想画像とを合成する処理を含み画像合成装置1を制御する制御部12と、画像を合成するために必要な各種情報やデータが記憶される記憶部14と、合成された合成画像を表示する表示部16と、本画像合成装置1を操作するための操作部18と、を有している。
An
本実施形態の画像合成装置1は、例えば、撮像部10と、撮影した画像を表示する表示部16とを有し持ち運び可能な、例えばデジタルカメラ、デジタルビデオカメラ、携帯電話、携帯情報端末(PDA)、モバイルコンピュータなどに、画像合成処理が実行可能なプログラムが記憶されている。
The
そして、画像合成装置1の使用者が、被写体を撮影すると、表示部16に撮影された実画像が表示される。このとき、撮影された実画像20(図4)に、予め設定された、例えば、QRコード(登録商標)やバーコードなどの、所定の合成情報が対応づけられた画像対応被写体としてのマーカー21が含まれていた場合には、マーカー21を検出して情報を取得し、取得した情報に基づいて、撮影した実画像20と予め記憶されている仮想画像23(図6)とを合成した合成画像24(図6)を生成し合成画像24が表示部16に表示されるように構成されている。
Then, when the user of the
撮像部10は、例えば、デジタルカメラやデジタルビデオカメラのような、撮影により、画像を構成する複数の画素の各画像データを生成するCCDセンサーなどの撮像素子により、光情報を電気情報に変換するように構成されている。
The
表示部16は、画像を構成する複数の画素の画像データを、各素子に対応させて表示することが可能な、例えば液晶パネル16aであり、液晶パネル16aの表面には重ねて設けられた透光性を有するタッチパネル18aとを有している。ここで、各画素の画像データとは、例えば、各画素をR(レッド)成分、G(グリーン)成分、B(ブルー)成分に分解した各成分を示すデータである。
The
操作部18は、画像合成装置1を使用する使用者が、画像合成装置1に対し撮影等の操作を行ったり、設定を変更するなどの操作を行う部位であり、少なくとも実画像20を撮影するための所謂シャッターを有している。ここで、タッチパネル18aも操作部18に含まれる。
The
記憶部14は、本画像合成装置1にて合成画像を生成するための各種情報が記憶されており、また、情報が記憶される情報記憶領域14aと、合成画像を生成する処理の中で画像データが書き換えられていく作業領域となる画像仮想展開領域14bとを有している。
The
情報記憶領域14aには、位置情報に対応づけられた仮想画像23を特定する情報、仮想画像23の画像データ、仮想画像23の実画像20に対して配置すべき位置を示す位置情報、などが記憶されている。また、情報記憶領域14aには、撮影時に計測された撮像部10の視点から被写体までの距離を示す情報等、算出された情報も記憶される。また、情報記憶領域14aには、被写体となるコンクリート構造物を立体的にモデル化した立体モデルとしての3Dモデルのデータも記憶されている。
In the information storage area 14a, information for specifying the
画像仮想展開領域14bは、撮影された画像データが画素毎に記憶される記憶領域である。上述したように、各画素の画像データはR,G,Bの3つの成分を示すデータを有するので、画像仮想展開領域14bは、合成画像を構成する画素数の3倍の記憶領域を有している。
The image
画像仮想展開領域14bに記憶される画像データは、合成画像を生成する際には必要に応じて対応する画素の画像データが書き換えられる。そして、画像仮想展開領域14bに画素毎に記憶された3つのデータは、各画素の画像データが書き換えられる場合には、R成分、G成分、B成分の各データがそれぞれ書き換えられる。このとき、画像仮想展開領域14bは、記憶領域が表示部16または撮像部10の素子と同様に配列されている必要はなく、各記憶領域の画像データが、表示部16または撮像部10の素子と対応づけられて記憶されていればよい。
The image data stored in the image
制御部12は、使用者により操作部18が操作されることにより、撮像部10や表示部16を制御したり、撮影された実画像20の画像データからマーカー21を検出し、マーカー21にて示される情報を解析する解析処理、解析された情報に基づいて、実画像20と記憶部14に記憶されている仮想画像23とを合成する画像合成処理等の各種処理を実行する。
The
次に、制御部12による画像合成方法について説明する。
本実施形態の画像合成方法は、画像合成装置1に設けられ、撮像部10にて撮影するための操作部18であるシャッターが操作されて処理が開始される。このとき、画像合成装置1が、デジタルカメラなどのように、単に実画像を撮影するときと、合成画像を生成するときとで処理を切り替えるスイッチが操作部18に設けられていてもよい。また、常に合成画像を生成する処理が実行されるように設定されており、撮影された実画像にマーカー21が検出されたときのみ合成画像を生成する処理を実行することとしてもよい。
Next, an image composition method by the
The image composition method according to the present embodiment is provided in the
本実施形態は、前述したように、画像合成装置1の撮像部10にて撮影するときに、撮影範囲内に、QRコード(登録商標)やバーコードなどの位置情報が対応づけられた位置情報被写体としてのマーカー21に対応づけられた情報に基づいて合成画像24を生成する。
In the present embodiment, as described above, when shooting is performed by the
本実施形態では、互いに異なる位置情報が対応づけられた2つのマーカー21を用いて説明する。2つのマーカー21を区別するために、一方のマーカー21をAマーカー21a、他方のマーカー21をBマーカー21bとして説明する。ここで、Aマーカー21a及びBマーカー21bには、マーカー位置情報として、設けられている位置のx座標、y座標、z座標と、Aマーカー21a及びBマーカー21bの実際の大きさを示す情報が対応付けられている。
In the present embodiment, description will be made using two
図2は、本実施形態の画像合成方法の施工時における処理を説明するためのフローチャートである。図3は、本実施形態の画像合成方法の竣工後における処理を説明するためのフローチャートである。図4は、施工時実画像およびその撮影範囲を示す図である。図5は、施工時実画像の画像データ、Aマーカーの位置情報、撮影情報を3Dモデルと対応づけるイメージを示す図である。 FIG. 2 is a flowchart for explaining processing at the time of construction of the image composition method of the present embodiment. FIG. 3 is a flowchart for explaining processing after completion of the image composition method of the present embodiment. FIG. 4 is a diagram showing a construction actual image and its photographing range. FIG. 5 is a diagram showing an image in which image data of a construction actual image, position information of the A marker, and shooting information are associated with the 3D model.
本実施形態では、まず、コンクリート構造物の施工時に、例えば壁30のコンクリートが打設される前の状態を撮影する。このとき、撮影する撮影範囲内に第1位置情報被写体としてのAマーカー21aが含まれるように撮影する。Aマーカー21aには、Aマーカー21aが設けられている地球上の位置、または、コンクリート構造物上の位置がx座標、y座標、z座標にて示されるマーカー位置情報として対応づけられている。このAマーカー21aは、対応づけられているx座標、y座標、z座標が第1位置に相当し、x座標、y座標、z座標のマーカー位置情報に基づいて、GPS、位置センサーなどにより、位置が正確に計測されて配置されている。ここで、施工時におけるコンクリートが打設される前の鉄筋31が配筋された部位及びAマーカー21aを含む領域が第1領域に相当する。
In this embodiment, first, for example, a state before the concrete on the
制御部12は、シャッターが操作されると撮像部10にて被写体となる第1領域を撮影し、撮影された第1領域画像としての施工時実画像20aを構成する各画素の画像データを生成し(撮影工程S1)、生成した施工時実画像20aの画像データを記憶部14の情報記憶領域14aに記憶する(記憶工程S2)。ここでは、図4に示すような撮影範囲F1にて撮影されたとする。図4に示すように、壁30が形成される部位には、縦横に鉄筋31が配筋されている。
When the shutter is operated, the
このとき、制御部12は実画像の撮影時に撮像部10から取得した情報に基づき、一般的なカメラにも搭載されているオートフォーカス機構の原理を利用して、例えば、レンズの上半分と下半分にて生じる重心位置の違いを利用して被写体と、撮像部10の視点位置との距離を計測する(S3)。また、デジタルコンパスなどを用いて、画像合成装置1による撮影方向を特定する(S3)。計測した距離と特定した撮影方向とを撮影位置情報として記憶部14の情報記憶領域14aに記憶する(S4)。
At this time, the
このように、コンクリート構造物の所望の位置にて撮影し生成した施工時実画像20aの画像データを、撮影する毎にマーカー21のx座標、y座標、z座標を示すマーカー位置情報と、撮影時の被写体との距離及び方向を示す撮影位置情報とともに、図5に示すような情報記憶領域14aに記憶されているコンクリート構造物の3Dモデル33上に対応づけて記憶する(S5)。ここで、コンクリート構造物の施工時に撮影する被写体は、配筋状態を示すものに限らず、配管状態、配線状態などであっても構わない。
Thus, marker position information indicating the x-coordinate, y-coordinate, and z-coordinate of the
図6(a)は、竣工後実画像の撮影範囲を示す図であり、図6(b)は、使用者による領域の指定がなされた際の表示を説明するための図であり、図6(c)は、表示部に表示された合成画像を示す図である。図7は、施工前実画像の撮影方向を竣工後の撮影方向と合わせた仮想画像を示す図である。 FIG. 6A is a diagram showing a photographing range of a real image after completion, and FIG. 6B is a diagram for explaining a display when an area is designated by the user. (C) is a figure which shows the synthesized image displayed on the display part. FIG. 7 is a diagram illustrating a virtual image in which the shooting direction of the actual image before construction is matched with the shooting direction after completion.
次に、図6に示すように、例えば、コンクリート構造物の竣工後に、施工時にAマーカー21aとともに配筋状態を撮影した壁30に第2位置情報被写体としてのBマーカー21bを貼り付け、このBマーカー21bが撮影範囲に含まれるように撮影する。Bマーカー21bには、Bマーカー21bが設けられている地球上の位置、または、コンクリート構造物上の位置がx座標、y座標、z座標にて示されるマーカー位置情報として対応づけられている。このBマーカー21bは、対応づけられているx座標、y座標、z座標が第2位置に相当し、x座標、y座標、z座標のマーカー位置情報に基づいて、GPS、位置センサーなどにより正確に計測して配置する。ここで、竣工後におけるコンクリートが打設された後の壁30及びBマーカー21bを含む領域が第2領域に相当する。
Next, as shown in FIG. 6, for example, after the completion of the concrete structure, a
制御部12は、シャッターが操作されると撮像部10にて被写体を撮影し、撮影された竣工後実画像20bを構成する各画素の画像データを生成し(S11)、生成した竣工後実画像20bの画像データを記憶部14の画像仮想展開領域14bに記憶する(S12)。ここでは、図6(a)に示すような撮影範囲F2にて撮影されたとする。図6(a)に示すように、Bマーカー21bが貼り付けられた壁30が、施工時実画像20aと相違する角度、例えば正面から撮影されている。
When the shutter is operated, the
このとき、制御部12は、Bマーカー21bに対応づけられたマーカー位置情報を取得するとともに、壁30と撮像部10の視点位置との距離を計測し、また、デジタルコンパスなどを用いて、画像合成装置1による撮影方向を特定し、特定した撮影方向と計測された距離とを撮影位置情報として記憶部14の情報記憶領域14aに記憶する(S13)。
At this time, the
次に、制御部12は、竣工後の撮影時の撮影位置及び撮影方向に基づいて、情報記憶領域14aに記憶されているコンクリート構造物の3Dモデル33上にて、撮影方向に含まれる位置に対応づけられた施工時実画像20aの有無を判定する(S14)。このとき、竣工後実画像20bにてBマーカー21bが貼り付けられた壁30は、施工時にAマーカー21aが設けられていた配筋が埋設されている壁30なので、Aマーカー21aとともに撮影された施工時実画像20aが検出される。このとき、撮影方向に含まれる位置に対応づけられた施工時実画像20aが情報記憶領域14aに記憶されていない場合には、処理を終了し、竣工後実画像が表示部16に表示されている。
Next, the
Aマーカー21aに対応づけられた施工時実画像20aが検出されると、制御部12は、画像仮想展開領域14bに記憶された竣工後実画像20bの画像データに基づいて、表示部16に竣工後実画像20bを表示するとともに、施工時の配筋の状態を見たい領域をタッチパネルから入力することを促すメッセージを表示する(S15)。
When the construction
使用者は、このメッセージに従い、タッチパネルから、例えば、図6(b)に示すように壁30が表示された領域に枠32を描くようになぞり、配筋状態を見たい領域を指定する。このとき、表示部16の画像には、使用者がなぞった枠が描かれる。
In accordance with this message, the user traces from the touch panel so as to draw a
次に、Aマーカー21aとともに撮影された施工時実画像20aに対応づけて記憶されているマーカー位置情報及び撮影位置情報を情報記憶領域14aから取得し(S16)、施工時実画像20aの画像データを解析して撮影方向に対する壁30の傾きを算出する(S17)。たとえば、施工時実画像20aは、図2に示すように、表示部16上にて壁30の右端側の高さを示す長さが壁30の左端側の高さを示す長さより短く表示されている。このため、Aマーカー21aの右端側の長さ、Aマーカー21aの左端側の長さ、及び、Aマーカー21aの幅を施工時実画像20aの画像データから計測する。計測した値と、情報記憶領域14aに記憶されているAマーカー21aの実際の大きさから撮影方向に対する壁30の傾きを算出する。
Next, the marker position information and the shooting position information stored in association with the construction
次に、Bマーカー21bとともに撮影された竣工後実画像20bに対応づけて記憶されているマーカー位置情報及び撮影位置情報を情報記憶領域14aから取得し、竣工後実画像20bの画像データを解析して撮影方向に対する壁30の傾きを算出する(S18)。このとき、竣工後実画像20bは、図6に示すように、壁30の右端側の高さと壁30の左端側の高さとが等しいので、竣工後実画像20bの撮影方向は壁30に対して直交する正面からの撮影であることが検出される。また、算出した施工時実画像20aと竣工後実画像20bの撮影方向及び傾きと、Aマーカー21a及びBマーカー21bのマーカー位置情報とから、施工時実画像20aと竣工後実画像20bとの撮影位置のズレを算出する。
Next, the marker position information and shooting position information stored in association with the
そして、施工時実画像20aと竣工後実画像20bの撮影方向及び傾きと、施工時実画像20aと竣工後実画像20bとの撮影位置のズレとに基づいて、施工時実画像20aの画像データを加工して、図7に示すように、施工時実画像20aを、竣工後実画像20bの撮影方向と同じ方向から撮影したように位置決めした仮想画像23に加工する(S19)。
The image data of the construction
次に、施工時実画像20aを加工した仮想画像23を、使用者によりタッチパネルから指定された領域の大きさにすべく、指定された領域の外側の画像を削除し(S20)、指定された領域の画像に加工された仮想画像23の画像データを、画像仮想展開領域14bに記憶されている竣工後実画像20bの画像データを書き換える(S21)。これにより、図6(c)に示すように、竣工後実画像の指定された領域に配筋の状態が示された仮想画像が合成された合成画像24が生成される。ここで、図3におけるS19〜S21の処理が画像合成工程に相当する。
Next, in order to make the
最後に、画像仮想展開領域14bに記憶されている合成画像24の画像データに基づいて合成画像24を表示部16に表示する(S22)。
Finally, the
本実施形態の画像合成方法によれば、Aマーカー21aにより位置が特定された施工時実画像20aと、Bマーカー21bにより位置が特定され、施工時にAマーカー21aとともに撮影された領域を含み、竣工後にBマーカー21bを含む領域を撮影した竣工後実画像20bと、をAマーカー21aに対応づけられたx座標、y座標、z座標とBマーカー21bに対応づけられたx座標、y座標、z座標とに基づいて位置決めし、使用者に指定された領域に合わせた仮想画像23を形成して合成するので、施工時実画像20aから加工した仮想画像23を竣工後実画像20bの、より正確な位置に合成することが可能である。このとき、施工時実画像20aにはAマーカー21aが含まれており、竣工後実画像20bにはBマーカー21bが含まれているので、施工時実画像20a及び竣工後実画像20bを撮影するだけで施工時実画像20aから加工した仮想画像23及び竣工後実画像20bの位置を容易に特定し、施工時実画像20aから加工した仮想画像23と竣工後実画像20bとを位置的に対応づけることが可能である。このため、施工時実画像20aから加工した仮想画像23を竣工後実画像20bに、より正確に配置して容易に合成することが可能である。
According to the image synthesizing method of the present embodiment, the image includes the
また、竣工後実画像20bの画像データに合成する施工時実画像20aの画像データは、施工時と竣工後の撮影時の、撮影位置、視点からの距離及び撮影方向が互いに相違したとしても、施工時実画像20aを竣工後実画像20bの撮影位置、視点からの距離及び撮影方向に対応させて加工するので、施工時実画像20aを竣工後実画像20bと同じ距離及び同じ方向から撮影したような仮想画像23として生成することが可能である。そして、生成した仮想画像23を竣工後実画像20に合成するので、一度に撮影したように重ね合わせられた合成画像を生成することが可能である。
In addition, even if the image data of the construction
また、施工時実画像20aは、Aマーカー21aに対応づけられたマーカー位置情報、撮影時に計測された視点との距離、及び、撮影の方向に基づいて、3Dモデル33に対応づけて記憶されているので、撮影された二次元の施工時実画像20aを、撮影する被写体を立体的にモデル化した3Dモデル33に対応づけることにより、施工時実画像20aに三次元の座標情報を付して記憶しておくことが可能である。
The
上記実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれることはいうまでもない。 The above embodiment is for facilitating the understanding of the present invention, and is not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.
上記実施形態においては、Aマーカー21aを正確な位置に配置した例について説明したが、必ずしもAマーカー21aが正確に計測された位置に設けられている必要はなく、たとえば、Aマーカー21aとは異なり正確に計測された基準マーカー等が設けられており、基準マーカーとAマーカー21aとが撮影範囲に含まれるように撮影した実画像を解析して、Aマーカー21aの正確な位置を算出しても構わない。
In the above embodiment, the example in which the
上記実施形態では、静止画像を合成する例について説明したが、動画を合成する場合には、動画のフレームレートに合わせて、合成した画像を生成して表示すればよい。例えば、フレームレートが15fpsであれば、1秒間に15回、上記のように画像の合成処理を繰り返し表示部の画像を書き換えることにより実現可能である。 In the above embodiment, an example of combining still images has been described. However, when combining moving images, a combined image may be generated and displayed in accordance with the frame rate of the moving images. For example, if the frame rate is 15 fps, it can be realized by rewriting the image on the display unit by repeating the image composition processing as described above 15 times per second.
1 画像合成装置
10 撮像部
12 制御部
14 記憶部
14a 情報記憶領域
14b 画像仮想展開領域
16 表示部
16a 液晶パネル
18 操作部
18a タッチパネル
20 実画像
20a 施工時実画像
20b 竣工後実画像
21 マーカー
21a Aマーカー
21b Bマーカー
23 仮想画像
24 合成画像
30 壁
31 鉄筋
32 枠
33 3Dモデル
F1 施工時における撮影範囲
F2 竣工後における撮影範囲
DESCRIPTION OF
Claims (2)
前記第1領域画像と、前記第1位置情報被写体にて特定される第1位置と、を対応づけて記憶する記憶工程と、
前記第1領域を含む第2領域に第2位置情報被写体を含ませて前記第2領域を撮影した第2領域画像の画像データに、前記第2位置情報被写体にて特定される第2位置と前記第1位置とに基づいて位置決めして前記第1領域画像の画像データを合成する画像合成工程と、
を有し、
前記第1領域の撮影時及び前記第2領域の撮影時には、撮影の視点と前記第1位置情報被写体及び前記第2位置情報被写体との距離を計測するとともに撮影の方向を特定し、
特定した前記視点との距離、前記撮影の方向、及び、前記第1位置情報被写体及び前記第2位置情報被写体のマーカー位置情報に基づいて、前記第2領域画像の画像データに合成する前記第1領域画像の画像データを加工して、前記第1領域画像と合成することを特徴とする画像合成方法。 A shooting step of shooting the first area by including a first position information subject whose position can be specified within a shooting range when shooting the first area, and generating image data of the first area image;
A storage step of storing the first region image and the first position specified by the first position information subject in association with each other;
A second position specified by the second position information subject in image data of a second region image obtained by photographing the second area by including the second position information subject in the second area including the first area; An image combining step of combining the image data of the first region image by positioning based on the first position;
Have
During shooting of the first region and shooting of the second region, the distance between the shooting viewpoint and the first position information subject and the second position information subject is measured and the shooting direction is specified,
Based on the identified distance from the viewpoint, the shooting direction, and the marker position information of the first position information subject and the second position information subject, the first region to be combined with the image data of the second region image An image composition method comprising processing image data of a region image and combining it with the first region image .
前記第1領域画像は、前記第1位置情報被写体に対応づけられたマーカー位置情報、撮影時に計測された前記視点との距離、及び、前記撮影の方向に基づいて、撮影する被写体を立体的にモデル化した立体モデルに対応づけて記憶されていることを特徴とする画像合成方法。 The image composition method according to claim 1 ,
The first area image is a three-dimensional image of a subject to be photographed based on marker position information associated with the first position information subject, a distance from the viewpoint measured at the time of photographing, and the direction of photographing. An image composition method characterized by being stored in association with a modeled stereo model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011038750A JP5691630B2 (en) | 2011-02-24 | 2011-02-24 | Image composition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011038750A JP5691630B2 (en) | 2011-02-24 | 2011-02-24 | Image composition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012175667A JP2012175667A (en) | 2012-09-10 |
JP5691630B2 true JP5691630B2 (en) | 2015-04-01 |
Family
ID=46978075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011038750A Active JP5691630B2 (en) | 2011-02-24 | 2011-02-24 | Image composition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5691630B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6992329B2 (en) * | 2017-08-30 | 2022-01-13 | 中国電力株式会社 | Reinforcing bar position confirmation system |
JP7128013B2 (en) * | 2018-04-05 | 2022-08-30 | 株式会社東芝 | Buried object recognition method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9119964D0 (en) * | 1991-09-18 | 1991-10-30 | Sarnoff David Res Center | Pattern-key video insertion |
JP2004342067A (en) * | 2003-04-22 | 2004-12-02 | 3D Media Co Ltd | Image processing method, image processor and computer program |
JP2006018444A (en) * | 2004-06-30 | 2006-01-19 | Taisei Corp | Image processing system and additional information indicating device |
-
2011
- 2011-02-24 JP JP2011038750A patent/JP5691630B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012175667A (en) | 2012-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101813834B1 (en) | Image processing device, image processing method, image processing program and photographing assist equipment | |
TWI523517B (en) | Image capture device, image alignment method, and the storage medium for executing the method | |
JP6329343B2 (en) | Image processing system, image processing apparatus, image processing program, and image processing method | |
JP4878083B2 (en) | Image composition apparatus and method, and program | |
US9343043B2 (en) | Methods and apparatus for generating composite images | |
US20130314493A1 (en) | Imaging apparatus, photographing guide displaying method for imaging apparatus, and non-transitory computer readable medium | |
JP2012015674A (en) | Imaging device, operation control method for imaging device, and program for imaging device | |
JP2010108384A (en) | Construction verification device | |
JP2007147422A (en) | Measurement system, image processor, and method | |
JP5387668B2 (en) | Information processing terminal, information processing method, and program | |
KR101574636B1 (en) | Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage | |
JP6514418B2 (en) | Imaging system, imaging method, and program | |
KR20160125715A (en) | 3d scanner and 3d scanning method | |
CN103856715B (en) | Imaging device and method | |
JP5691629B2 (en) | Image composition method | |
JP5691630B2 (en) | Image composition method | |
JP2017151026A (en) | Three-dimensional information acquiring device, three-dimensional information acquiring method, and program | |
KR101082545B1 (en) | Mobile communication terminal had a function of transformation for a picture | |
JP4581512B2 (en) | Three-dimensional image processing apparatus, optical axis adjustment method, and optical axis adjustment support method | |
JP5776218B2 (en) | Image composition method | |
JP5764969B2 (en) | Image composition method | |
CA2822946C (en) | Methods and apparatus for generating composite images | |
JP7346245B2 (en) | Construction site recording program | |
JP5691632B2 (en) | Image composition method | |
JP5691631B2 (en) | Image composition method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141009 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141021 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5691630 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |