[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5691630B2 - Image composition method - Google Patents

Image composition method Download PDF

Info

Publication number
JP5691630B2
JP5691630B2 JP2011038750A JP2011038750A JP5691630B2 JP 5691630 B2 JP5691630 B2 JP 5691630B2 JP 2011038750 A JP2011038750 A JP 2011038750A JP 2011038750 A JP2011038750 A JP 2011038750A JP 5691630 B2 JP5691630 B2 JP 5691630B2
Authority
JP
Japan
Prior art keywords
image
marker
position information
area
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011038750A
Other languages
Japanese (ja)
Other versions
JP2012175667A (en
Inventor
哲 近藤
哲 近藤
金子 智弥
智弥 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Obayashi Corp
Original Assignee
Obayashi Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Obayashi Corp filed Critical Obayashi Corp
Priority to JP2011038750A priority Critical patent/JP5691630B2/en
Publication of JP2012175667A publication Critical patent/JP2012175667A/en
Application granted granted Critical
Publication of JP5691630B2 publication Critical patent/JP5691630B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮影した実画像と予め用意した仮想画像とを合成する画像合成方法に関する。   The present invention relates to an image composition method for compositing a photographed real image and a virtual image prepared in advance.

撮影した実画像と予め用意した仮想画像などの付加画像とを合成する画像合成方法としては、例えば、撮影する被写体がマーカーを有しており、マーカーが配置されている実表面に仮想画像を、実質的に同一平面となるように合成して合成画像を生成する画像合成方法が知られている(例えば、特許文献1参照)。   As an image composition method for compositing a captured real image and an additional image such as a virtual image prepared in advance, for example, the subject to be photographed has a marker, and the virtual image is placed on the actual surface where the marker is arranged. An image composition method is known in which a composite image is generated by combining so as to be substantially in the same plane (see, for example, Patent Document 1).

特開2010―49690号公報JP 2010-49690 A

上記従来の画像合成方法は、仮想画像を、実表面に同一平面となるように配置しているが、実画像と仮想画像とは、同一平面内における位置も、より正確に合わせて合成したい場合がある。このため、予め用意した仮想画像の各画素のデータを撮影した実画像上の正確な位置に配置する場合には、作業が煩雑で、多大な時間とコストを費やさなければならないという課題がある。   In the above conventional image composition method, the virtual image is arranged on the real surface so as to be on the same plane, but the real image and the virtual image are to be synthesized by matching the position in the same plane more accurately. There is. For this reason, when arranging the data of each pixel of a virtual image prepared in advance at an accurate position on a captured real image, there is a problem that work is complicated and a great deal of time and cost must be spent.

本発明は、かかる課題に鑑みてなされたものであり、その目的とするところは、仮想画像を、撮影された実画像により正確かつ容易に配置して合成することが可能な画像合成方法を提供することにある。   The present invention has been made in view of such problems, and an object of the present invention is to provide an image composition method capable of accurately and easily arranging and compositing a virtual image with a captured real image. There is to do.

かかる目的を達成するために本発明の画像合成方法は、第1領域を撮影する際の撮影範囲内に、位置を特定可能な第1位置情報被写体を含ませて前記第1領域を撮影して第1領域画像の画像データを生成する撮影工程と、
前記第1領域画像と、前記第1位置情報被写体にて特定される第1位置と、を対応づけて記憶する記憶工程と、
前記第1領域を含む第2領域に第2位置情報被写体を含ませて前記第2領域を撮影した第2領域画像の画像データに、前記第2位置情報被写体にて特定される第2位置と前記第1位置とに基づいて位置決めして前記第1領域画像の画像データを合成する画像合成工程と、
を有し、
前記第1領域の撮影時及び前記第2領域の撮影時には、撮影の視点と前記第1位置情報被写体及び前記第2位置情報被写体との距離を計測するとともに撮影の方向を特定し、
特定した前記視点との距離、前記撮影の方向、及び、前記第1位置情報被写体及び前記第2位置情報被写体のマーカー位置情報に基づいて、前記第2領域画像の画像データに合成する前記第1領域画像の画像データを加工して、前記第1領域画像と合成することを特徴とする画像合成方法である。
In order to achieve such an object, the image composition method of the present invention shoots the first area by including a first position information subject whose position can be specified within the shooting range when shooting the first area. A photographing step of generating image data of the first region image;
A storage step of storing the first region image and the first position specified by the first position information subject in association with each other;
A second position specified by the second position information subject in image data of a second region image obtained by photographing the second area by including the second position information subject in the second area including the first area; An image combining step of combining the image data of the first region image by positioning based on the first position;
Have
During shooting of the first region and shooting of the second region, the distance between the shooting viewpoint and the first position information subject and the second position information subject is measured and the shooting direction is specified,
Based on the identified distance from the viewpoint, the shooting direction, and the marker position information of the first position information subject and the second position information subject, the first region to be combined with the image data of the second region image An image composition method characterized by processing image data of a region image and combining it with the first region image .

このような画像合成方法によれば、第1位置情報被写体により位置が特定された第1領域画像と、第2位置情報被写体により位置が特定され、第1領域を含む第2領域を撮影した第2領域画像と、が第2位置と第1位置とに基づいて位置決めして合成されるので、第1領域画像を第2領域画像の、より正確な位置に合成することが可能である。このとき、第1領域画像には第1位置情報被写体が含まれており、第2領域画像には第2位置情報被写体が含まれているので、第1領域画像及び第2領域画像を撮影するだけで第1領域画像及び第2領域画像の位置を容易に特定し、第1領域画像と第2領域画像とを位置的に対応づけることが可能である。このため、第1領域画像を第2領域画像に、より正確かつ容易に配置して合成することが可能である。   According to such an image composition method, the first area image whose position is specified by the first position information subject and the second area where the position is specified by the second position information subject and the second area including the first area are photographed. Since the two-region image is positioned and synthesized based on the second position and the first position, the first region image can be synthesized at a more accurate position of the second region image. At this time, the first region image includes the first position information subject, and the second region image includes the second position information subject. Therefore, the first region image and the second region image are captured. It is possible to easily specify the positions of the first area image and the second area image, and to associate the first area image and the second area image with each other. For this reason, it is possible to arrange | position and synthesize | combine a 1st area image on a 2nd area image more correctly and easily.

また、第2領域画像の画像データに合成する第1領域画像の画像データは、第1領域の撮影時及び第2領域の撮影時に計測した、撮影の視点と第1位置情報被写体及び第2位置情報被写体との距離、撮影の方向、及び、第1位置情報被写体と第2位置情報被写体のマーカー位置情報に基づいて加工するので、第2領域画像と第1領域画像とが、撮影する際の距離及び撮影方向が互いに相違したとしても、第1領域画像を第2領域画像に対応させて加工し、同じ距離及び同じ方向から撮影したような画像とすることが可能であり、一度に撮影したような合成画像を生成することが可能である。
The image data of the first region image to be combined with the image data of the second area image was measured at the time of photographing the photographing and the second region of the first region, viewpoint and first position information object and the second position of the photographing Since processing is performed based on the distance to the information subject, the shooting direction, and the marker position information of the first position information subject and the second position information subject, the second region image and the first region image are used when shooting. Even if the distance and the shooting direction are different from each other, it is possible to process the first area image in correspondence with the second area image to obtain an image shot from the same distance and the same direction. Such a composite image can be generated.

かかる画像合成方法であって、前記第1領域画像は、前記第1位置情報被写体に対応づけられたマーカー位置情報、撮影時に計測された前記視点との距離、及び、前記撮影の方向に基づいて、撮影する被写体を立体的にモデル化した立体モデルに対応づけて記憶されていることが望ましい。   In this image composition method, the first region image is based on marker position information associated with the first position information subject, a distance from the viewpoint measured at the time of photographing, and a direction of the photographing. The object to be photographed is preferably stored in association with a three-dimensional model obtained by modeling a three-dimensional model.

このような画像合成装置によれば、第1領域画像は、第1位置情報被写体に対応づけられたマーカー位置情報、撮影時に計測された視点との距離、及び、撮影の方向に基づいて、立体モデルに対応づけて記憶されているので、撮影された二次元の第1領域画像を、撮影する被写体を立体的にモデル化した立体モデルに対応づけることにより、第1領域画像に三次元の座標情報を付して記憶しておくことが可能である。   According to such an image composition device, the first region image is based on the marker position information associated with the first position information subject, the distance from the viewpoint measured at the time of photographing, and the direction of photographing. Since it is stored in association with the model, the two-dimensional first area image that has been photographed is associated with a three-dimensional model in which the subject to be photographed is three-dimensionally modeled. Information can be added and stored.

本発明によれば、仮想画像を撮影された実画像により正確に配置して容易に合成することが可能な画像合成方法を提供することが可能である。   ADVANTAGE OF THE INVENTION According to this invention, it is possible to provide the image composition method which can arrange | position easily and synthesize | combine a virtual image correctly with the image | photographed real image.

本発明に係る画像合成方法を実現するための装置の一例を示すブロック図である。It is a block diagram which shows an example of the apparatus for implement | achieving the image composition method which concerns on this invention. 本実施形態の画像合成方法の施工時における処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process at the time of construction of the image composition method of this embodiment. 本実施形態の画像合成方法の竣工後における処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process after completion of the image composition method of this embodiment. 施工時実画像及びその撮影範囲を示す図である。It is a figure which shows the real image at the time of construction, and its imaging | photography range. 施工時実画像の画像データ、Aマーカーの位置情報、撮影情報を3Dモデルと対応づけるイメージを示す図である。It is a figure which shows the image which matches image data of the real image at the time of construction, the positional information on A marker, and imaging | photography information with 3D model. 図6(a)は、竣工後実画像の撮影範囲を示す図であり、図6(b)は、使用者による領域の指定がなされた際の表示を説明するための図であり、図6(c)は、表示部に表示された合成画像を示す図である。FIG. 6A is a diagram showing a photographing range of a real image after completion, and FIG. 6B is a diagram for explaining a display when an area is designated by the user. (C) is a figure which shows the synthesized image displayed on the display part. 施工前実画像の撮影方向を竣工後の撮影方向と合わせた仮想画像を示す図である。It is a figure which shows the virtual image which match | combined the imaging direction of the real image before construction with the imaging direction after completion.

本実施形態の画像合成方法は、例えば、竣工後のコンクリート構造物の壁などを撮影して、撮影した壁の施工時における配筋の状況を合成画像にて表示する場合などに用いられる。   The image composition method according to the present embodiment is used, for example, when photographing a wall of a concrete structure after completion and displaying the state of bar arrangement during construction of the photographed wall as a composite image.

以下、本発明の一実施形態について図面を用いて詳細に説明する。
図1は、本発明に係る画像合成方法を実現するための装置の一例を示すブロック図である。
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing an example of an apparatus for realizing an image composition method according to the present invention.

本実施形態の画像合成方法を実現するための画像合成装置1は、被写体を撮影する撮像部10と、撮影した被写体の実画像と予め形成されている仮想画像とを合成する処理を含み画像合成装置1を制御する制御部12と、画像を合成するために必要な各種情報やデータが記憶される記憶部14と、合成された合成画像を表示する表示部16と、本画像合成装置1を操作するための操作部18と、を有している。   An image composition apparatus 1 for realizing the image composition method of the present embodiment includes an image composition unit 10 that photographs a subject, and a process that combines a real image of the photographed subject and a pre-formed virtual image. A control unit 12 that controls the apparatus 1, a storage unit 14 that stores various information and data necessary for combining images, a display unit 16 that displays the combined image, and the present image combining apparatus 1. And an operation unit 18 for operation.

本実施形態の画像合成装置1は、例えば、撮像部10と、撮影した画像を表示する表示部16とを有し持ち運び可能な、例えばデジタルカメラ、デジタルビデオカメラ、携帯電話、携帯情報端末(PDA)、モバイルコンピュータなどに、画像合成処理が実行可能なプログラムが記憶されている。   The image composition device 1 of the present embodiment has, for example, an imaging unit 10 and a display unit 16 that displays a captured image, and is portable, for example, a digital camera, a digital video camera, a mobile phone, a personal digital assistant (PDA). ), A program capable of executing image composition processing is stored in a mobile computer or the like.

そして、画像合成装置1の使用者が、被写体を撮影すると、表示部16に撮影された実画像が表示される。このとき、撮影された実画像20(図4)に、予め設定された、例えば、QRコード(登録商標)やバーコードなどの、所定の合成情報が対応づけられた画像対応被写体としてのマーカー21が含まれていた場合には、マーカー21を検出して情報を取得し、取得した情報に基づいて、撮影した実画像20と予め記憶されている仮想画像23(図6)とを合成した合成画像24(図6)を生成し合成画像24が表示部16に表示されるように構成されている。   Then, when the user of the image composition device 1 photographs the subject, the captured actual image is displayed on the display unit 16. At this time, a marker 21 as an image-corresponding subject in which predetermined composite information such as a QR code (registered trademark) or a bar code set in advance is associated with the photographed real image 20 (FIG. 4). Is included, information is acquired by detecting the marker 21, and based on the acquired information, the synthesized real image 20 and a pre-stored virtual image 23 (FIG. 6) are combined. An image 24 (FIG. 6) is generated and the composite image 24 is displayed on the display unit 16.

撮像部10は、例えば、デジタルカメラやデジタルビデオカメラのような、撮影により、画像を構成する複数の画素の各画像データを生成するCCDセンサーなどの撮像素子により、光情報を電気情報に変換するように構成されている。   The imaging unit 10 converts optical information into electrical information by an imaging element such as a CCD sensor that generates image data of a plurality of pixels constituting an image by photographing, such as a digital camera or a digital video camera. It is configured as follows.

表示部16は、画像を構成する複数の画素の画像データを、各素子に対応させて表示することが可能な、例えば液晶パネル16aであり、液晶パネル16aの表面には重ねて設けられた透光性を有するタッチパネル18aとを有している。ここで、各画素の画像データとは、例えば、各画素をR(レッド)成分、G(グリーン)成分、B(ブルー)成分に分解した各成分を示すデータである。   The display unit 16 is, for example, a liquid crystal panel 16a that can display image data of a plurality of pixels constituting an image in correspondence with each element, and is transparently provided on the surface of the liquid crystal panel 16a. And a touch panel 18a having optical properties. Here, the image data of each pixel is, for example, data indicating each component obtained by decomposing each pixel into an R (red) component, a G (green) component, and a B (blue) component.

操作部18は、画像合成装置1を使用する使用者が、画像合成装置1に対し撮影等の操作を行ったり、設定を変更するなどの操作を行う部位であり、少なくとも実画像20を撮影するための所謂シャッターを有している。ここで、タッチパネル18aも操作部18に含まれる。   The operation unit 18 is a part where a user who uses the image composition device 1 performs an operation such as photographing or changing settings on the image composition device 1, and photographs at least the actual image 20. So-called shutters are provided. Here, the touch panel 18 a is also included in the operation unit 18.

記憶部14は、本画像合成装置1にて合成画像を生成するための各種情報が記憶されており、また、情報が記憶される情報記憶領域14aと、合成画像を生成する処理の中で画像データが書き換えられていく作業領域となる画像仮想展開領域14bとを有している。   The storage unit 14 stores various types of information for generating a composite image in the image composition apparatus 1, and also stores an information storage area 14a in which information is stored and an image in the process of generating the composite image. It has an image virtual development area 14b which is a work area in which data is rewritten.

情報記憶領域14aには、位置情報に対応づけられた仮想画像23を特定する情報、仮想画像23の画像データ、仮想画像23の実画像20に対して配置すべき位置を示す位置情報、などが記憶されている。また、情報記憶領域14aには、撮影時に計測された撮像部10の視点から被写体までの距離を示す情報等、算出された情報も記憶される。また、情報記憶領域14aには、被写体となるコンクリート構造物を立体的にモデル化した立体モデルとしての3Dモデルのデータも記憶されている。   In the information storage area 14a, information for specifying the virtual image 23 associated with the position information, image data of the virtual image 23, position information indicating a position of the virtual image 23 to be arranged with respect to the actual image 20, and the like. It is remembered. The information storage area 14a also stores calculated information such as information indicating the distance from the viewpoint of the imaging unit 10 to the subject measured at the time of shooting. The information storage area 14a also stores 3D model data as a three-dimensional model obtained by three-dimensionally modeling a concrete structure as a subject.

画像仮想展開領域14bは、撮影された画像データが画素毎に記憶される記憶領域である。上述したように、各画素の画像データはR,G,Bの3つの成分を示すデータを有するので、画像仮想展開領域14bは、合成画像を構成する画素数の3倍の記憶領域を有している。   The image virtual development area 14b is a storage area in which photographed image data is stored for each pixel. As described above, since the image data of each pixel has data indicating three components of R, G, and B, the image virtual development area 14b has a storage area that is three times the number of pixels constituting the composite image. ing.

画像仮想展開領域14bに記憶される画像データは、合成画像を生成する際には必要に応じて対応する画素の画像データが書き換えられる。そして、画像仮想展開領域14bに画素毎に記憶された3つのデータは、各画素の画像データが書き換えられる場合には、R成分、G成分、B成分の各データがそれぞれ書き換えられる。このとき、画像仮想展開領域14bは、記憶領域が表示部16または撮像部10の素子と同様に配列されている必要はなく、各記憶領域の画像データが、表示部16または撮像部10の素子と対応づけられて記憶されていればよい。   The image data stored in the image virtual development area 14b is rewritten with the corresponding pixel image data as necessary when generating a composite image. The three data stored for each pixel in the image virtual development area 14b are rewritten respectively for the R component, the G component, and the B component when the image data of each pixel is rewritten. At this time, in the image virtual development area 14b, the storage area does not need to be arranged in the same manner as the elements of the display unit 16 or the imaging unit 10, and the image data of each storage area is the element of the display unit 16 or the imaging unit 10. As long as they are stored in association with each other.

制御部12は、使用者により操作部18が操作されることにより、撮像部10や表示部16を制御したり、撮影された実画像20の画像データからマーカー21を検出し、マーカー21にて示される情報を解析する解析処理、解析された情報に基づいて、実画像20と記憶部14に記憶されている仮想画像23とを合成する画像合成処理等の各種処理を実行する。   The control unit 12 controls the imaging unit 10 and the display unit 16 by operating the operation unit 18 by the user, or detects the marker 21 from the image data of the captured real image 20. Various processes such as an analysis process for analyzing the displayed information and an image synthesis process for synthesizing the actual image 20 and the virtual image 23 stored in the storage unit 14 are executed based on the analyzed information.

次に、制御部12による画像合成方法について説明する。
本実施形態の画像合成方法は、画像合成装置1に設けられ、撮像部10にて撮影するための操作部18であるシャッターが操作されて処理が開始される。このとき、画像合成装置1が、デジタルカメラなどのように、単に実画像を撮影するときと、合成画像を生成するときとで処理を切り替えるスイッチが操作部18に設けられていてもよい。また、常に合成画像を生成する処理が実行されるように設定されており、撮影された実画像にマーカー21が検出されたときのみ合成画像を生成する処理を実行することとしてもよい。
Next, an image composition method by the control unit 12 will be described.
The image composition method according to the present embodiment is provided in the image composition apparatus 1, and a process is started by operating a shutter which is an operation unit 18 for photographing with the imaging unit 10. At this time, the operation unit 18 may be provided with a switch for switching processing between when the image composition device 1 simply captures a real image and when a composite image is generated, such as a digital camera. Further, it is set to always execute the process of generating the composite image, and the process of generating the composite image may be executed only when the marker 21 is detected in the captured real image.

本実施形態は、前述したように、画像合成装置1の撮像部10にて撮影するときに、撮影範囲内に、QRコード(登録商標)やバーコードなどの位置情報が対応づけられた位置情報被写体としてのマーカー21に対応づけられた情報に基づいて合成画像24を生成する。   In the present embodiment, as described above, when shooting is performed by the imaging unit 10 of the image composition device 1, the position information in which position information such as a QR code (registered trademark) or a barcode is associated with the shooting range. A composite image 24 is generated based on information associated with the marker 21 as a subject.

本実施形態では、互いに異なる位置情報が対応づけられた2つのマーカー21を用いて説明する。2つのマーカー21を区別するために、一方のマーカー21をAマーカー21a、他方のマーカー21をBマーカー21bとして説明する。ここで、Aマーカー21a及びBマーカー21bには、マーカー位置情報として、設けられている位置のx座標、y座標、z座標と、Aマーカー21a及びBマーカー21bの実際の大きさを示す情報が対応付けられている。   In the present embodiment, description will be made using two markers 21 in which different positional information is associated with each other. In order to distinguish between the two markers 21, one marker 21 will be described as an A marker 21a, and the other marker 21 as a B marker 21b. Here, in the A marker 21a and the B marker 21b, information indicating the actual size of the A marker 21a and the B marker 21b and the x coordinate, the y coordinate, and the z coordinate of the provided position are provided as marker position information. It is associated.

図2は、本実施形態の画像合成方法の施工時における処理を説明するためのフローチャートである。図3は、本実施形態の画像合成方法の竣工後における処理を説明するためのフローチャートである。図4は、施工時実画像およびその撮影範囲を示す図である。図5は、施工時実画像の画像データ、Aマーカーの位置情報、撮影情報を3Dモデルと対応づけるイメージを示す図である。   FIG. 2 is a flowchart for explaining processing at the time of construction of the image composition method of the present embodiment. FIG. 3 is a flowchart for explaining processing after completion of the image composition method of the present embodiment. FIG. 4 is a diagram showing a construction actual image and its photographing range. FIG. 5 is a diagram showing an image in which image data of a construction actual image, position information of the A marker, and shooting information are associated with the 3D model.

本実施形態では、まず、コンクリート構造物の施工時に、例えば壁30のコンクリートが打設される前の状態を撮影する。このとき、撮影する撮影範囲内に第1位置情報被写体としてのAマーカー21aが含まれるように撮影する。Aマーカー21aには、Aマーカー21aが設けられている地球上の位置、または、コンクリート構造物上の位置がx座標、y座標、z座標にて示されるマーカー位置情報として対応づけられている。このAマーカー21aは、対応づけられているx座標、y座標、z座標が第1位置に相当し、x座標、y座標、z座標のマーカー位置情報に基づいて、GPS、位置センサーなどにより、位置が正確に計測されて配置されている。ここで、施工時におけるコンクリートが打設される前の鉄筋31が配筋された部位及びAマーカー21aを含む領域が第1領域に相当する。   In this embodiment, first, for example, a state before the concrete on the wall 30 is placed is photographed when the concrete structure is constructed. At this time, photographing is performed so that the A marker 21a as the first position information subject is included in the photographing range to be photographed. The position on the earth where the A marker 21a is provided or the position on the concrete structure is associated with the A marker 21a as marker position information indicated by the x coordinate, the y coordinate, and the z coordinate. In this A marker 21a, the associated x coordinate, y coordinate, and z coordinate correspond to the first position. Based on the marker position information of the x coordinate, y coordinate, and z coordinate, the GPS, position sensor, etc. The position is accurately measured and arranged. Here, the region including the reinforcing bar 31 before the concrete is placed at the time of construction and the region including the A marker 21a corresponds to the first region.

制御部12は、シャッターが操作されると撮像部10にて被写体となる第1領域を撮影し、撮影された第1領域画像としての施工時実画像20aを構成する各画素の画像データを生成し(撮影工程S1)、生成した施工時実画像20aの画像データを記憶部14の情報記憶領域14aに記憶する(記憶工程S2)。ここでは、図4に示すような撮影範囲F1にて撮影されたとする。図4に示すように、壁30が形成される部位には、縦横に鉄筋31が配筋されている。   When the shutter is operated, the control unit 12 captures a first area as a subject in the image capturing unit 10 and generates image data of each pixel constituting the actual construction image 20a as the captured first region image. Then, the generated image data of the actual construction image 20a is stored in the information storage area 14a of the storage unit 14 (storage step S2). Here, it is assumed that the image is captured in the imaging range F1 as shown in FIG. As shown in FIG. 4, reinforcing bars 31 are arranged vertically and horizontally at the site where the wall 30 is formed.

このとき、制御部12は実画像の撮影時に撮像部10から取得した情報に基づき、一般的なカメラにも搭載されているオートフォーカス機構の原理を利用して、例えば、レンズの上半分と下半分にて生じる重心位置の違いを利用して被写体と、撮像部10の視点位置との距離を計測する(S3)。また、デジタルコンパスなどを用いて、画像合成装置1による撮影方向を特定する(S3)。計測した距離と特定した撮影方向とを撮影位置情報として記憶部14の情報記憶領域14aに記憶する(S4)。   At this time, the control unit 12 uses, for example, the upper half of the lens and the lower half of the lens based on the information acquired from the imaging unit 10 at the time of capturing a real image, using the principle of an autofocus mechanism mounted on a general camera. The distance between the subject and the viewpoint position of the imaging unit 10 is measured using the difference in the center of gravity position that occurs in half (S3). Further, the photographing direction by the image composition device 1 is specified using a digital compass or the like (S3). The measured distance and the specified shooting direction are stored in the information storage area 14a of the storage unit 14 as shooting position information (S4).

このように、コンクリート構造物の所望の位置にて撮影し生成した施工時実画像20aの画像データを、撮影する毎にマーカー21のx座標、y座標、z座標を示すマーカー位置情報と、撮影時の被写体との距離及び方向を示す撮影位置情報とともに、図5に示すような情報記憶領域14aに記憶されているコンクリート構造物の3Dモデル33上に対応づけて記憶する(S5)。ここで、コンクリート構造物の施工時に撮影する被写体は、配筋状態を示すものに限らず、配管状態、配線状態などであっても構わない。   Thus, marker position information indicating the x-coordinate, y-coordinate, and z-coordinate of the marker 21 each time the image data of the construction actual image 20a photographed and generated at a desired position of the concrete structure is photographed, and photographing. Along with the shooting position information indicating the distance and direction of the subject at the time, the information is stored in association with the 3D model 33 of the concrete structure stored in the information storage area 14a as shown in FIG. 5 (S5). Here, the subject to be imaged at the time of constructing the concrete structure is not limited to the one showing the bar arrangement state, and may be a pipe state, a wiring state, or the like.

図6(a)は、竣工後実画像の撮影範囲を示す図であり、図6(b)は、使用者による領域の指定がなされた際の表示を説明するための図であり、図6(c)は、表示部に表示された合成画像を示す図である。図7は、施工前実画像の撮影方向を竣工後の撮影方向と合わせた仮想画像を示す図である。   FIG. 6A is a diagram showing a photographing range of a real image after completion, and FIG. 6B is a diagram for explaining a display when an area is designated by the user. (C) is a figure which shows the synthesized image displayed on the display part. FIG. 7 is a diagram illustrating a virtual image in which the shooting direction of the actual image before construction is matched with the shooting direction after completion.

次に、図6に示すように、例えば、コンクリート構造物の竣工後に、施工時にAマーカー21aとともに配筋状態を撮影した壁30に第2位置情報被写体としてのBマーカー21bを貼り付け、このBマーカー21bが撮影範囲に含まれるように撮影する。Bマーカー21bには、Bマーカー21bが設けられている地球上の位置、または、コンクリート構造物上の位置がx座標、y座標、z座標にて示されるマーカー位置情報として対応づけられている。このBマーカー21bは、対応づけられているx座標、y座標、z座標が第2位置に相当し、x座標、y座標、z座標のマーカー位置情報に基づいて、GPS、位置センサーなどにより正確に計測して配置する。ここで、竣工後におけるコンクリートが打設された後の壁30及びBマーカー21bを含む領域が第2領域に相当する。   Next, as shown in FIG. 6, for example, after the completion of the concrete structure, a B marker 21 b as a second position information subject is pasted on the wall 30 where the bar arrangement state is photographed together with the A marker 21 a at the time of construction. Photographing is performed so that the marker 21b is included in the photographing range. The position on the earth where the B marker 21b is provided or the position on the concrete structure is associated with the B marker 21b as marker position information indicated by the x coordinate, the y coordinate, and the z coordinate. In this B marker 21b, the x coordinate, y coordinate, and z coordinate associated with each other correspond to the second position. Based on the marker position information of the x coordinate, the y coordinate, and the z coordinate, the B marker 21b is accurately detected by a GPS, a position sensor, or the like. Measure and place in Here, the area including the wall 30 and the B marker 21b after the concrete is placed after completion corresponds to the second area.

制御部12は、シャッターが操作されると撮像部10にて被写体を撮影し、撮影された竣工後実画像20bを構成する各画素の画像データを生成し(S11)、生成した竣工後実画像20bの画像データを記憶部14の画像仮想展開領域14bに記憶する(S12)。ここでは、図6(a)に示すような撮影範囲F2にて撮影されたとする。図6(a)に示すように、Bマーカー21bが貼り付けられた壁30が、施工時実画像20aと相違する角度、例えば正面から撮影されている。   When the shutter is operated, the control unit 12 captures the subject with the imaging unit 10, generates image data of each pixel constituting the captured actual image 20b (S11), and generates the generated actual image after completion. The image data 20b is stored in the image virtual development area 14b of the storage unit 14 (S12). Here, it is assumed that the image is captured in the imaging range F2 as shown in FIG. As shown in FIG. 6A, the wall 30 to which the B marker 21b is attached is taken from an angle different from the actual image 20a at the time of construction, for example, from the front.

このとき、制御部12は、Bマーカー21bに対応づけられたマーカー位置情報を取得するとともに、壁30と撮像部10の視点位置との距離を計測し、また、デジタルコンパスなどを用いて、画像合成装置1による撮影方向を特定し、特定した撮影方向と計測された距離とを撮影位置情報として記憶部14の情報記憶領域14aに記憶する(S13)。   At this time, the control unit 12 acquires the marker position information associated with the B marker 21b, measures the distance between the wall 30 and the viewpoint position of the imaging unit 10, and uses a digital compass or the like to measure the image. The shooting direction by the synthesizer 1 is specified, and the specified shooting direction and the measured distance are stored in the information storage area 14a of the storage unit 14 as shooting position information (S13).

次に、制御部12は、竣工後の撮影時の撮影位置及び撮影方向に基づいて、情報記憶領域14aに記憶されているコンクリート構造物の3Dモデル33上にて、撮影方向に含まれる位置に対応づけられた施工時実画像20aの有無を判定する(S14)。このとき、竣工後実画像20bにてBマーカー21bが貼り付けられた壁30は、施工時にAマーカー21aが設けられていた配筋が埋設されている壁30なので、Aマーカー21aとともに撮影された施工時実画像20aが検出される。このとき、撮影方向に含まれる位置に対応づけられた施工時実画像20aが情報記憶領域14aに記憶されていない場合には、処理を終了し、竣工後実画像が表示部16に表示されている。   Next, the control unit 12 sets the position included in the shooting direction on the 3D model 33 of the concrete structure stored in the information storage area 14a based on the shooting position and shooting direction at the time of shooting after completion. The presence / absence of the associated construction actual image 20a is determined (S14). At this time, the wall 30 to which the B marker 21b was pasted in the actual image 20b after completion was taken with the A marker 21a because it is a wall 30 in which the reinforcing bar provided with the A marker 21a was embedded at the time of construction. The actual image 20a at the time of construction is detected. At this time, when the construction actual image 20a associated with the position included in the photographing direction is not stored in the information storage area 14a, the processing is terminated, and the actual image after completion is displayed on the display unit 16. Yes.

Aマーカー21aに対応づけられた施工時実画像20aが検出されると、制御部12は、画像仮想展開領域14bに記憶された竣工後実画像20bの画像データに基づいて、表示部16に竣工後実画像20bを表示するとともに、施工時の配筋の状態を見たい領域をタッチパネルから入力することを促すメッセージを表示する(S15)。   When the construction actual image 20a associated with the A marker 21a is detected, the control unit 12 completes the construction on the display unit 16 based on the image data of the completed actual image 20b stored in the image virtual development area 14b. While displaying the after actual image 20b, the message which prompts to input the area | region which wants to see the state of the bar arrangement at the time of construction from a touch panel is displayed (S15).

使用者は、このメッセージに従い、タッチパネルから、例えば、図6(b)に示すように壁30が表示された領域に枠32を描くようになぞり、配筋状態を見たい領域を指定する。このとき、表示部16の画像には、使用者がなぞった枠が描かれる。   In accordance with this message, the user traces from the touch panel so as to draw a frame 32 in the area where the wall 30 is displayed, for example, as shown in FIG. At this time, a frame traced by the user is drawn on the image of the display unit 16.

次に、Aマーカー21aとともに撮影された施工時実画像20aに対応づけて記憶されているマーカー位置情報及び撮影位置情報を情報記憶領域14aから取得し(S16)、施工時実画像20aの画像データを解析して撮影方向に対する壁30の傾きを算出する(S17)。たとえば、施工時実画像20aは、図2に示すように、表示部16上にて壁30の右端側の高さを示す長さが壁30の左端側の高さを示す長さより短く表示されている。このため、Aマーカー21aの右端側の長さ、Aマーカー21aの左端側の長さ、及び、Aマーカー21aの幅を施工時実画像20aの画像データから計測する。計測した値と、情報記憶領域14aに記憶されているAマーカー21aの実際の大きさから撮影方向に対する壁30の傾きを算出する。   Next, the marker position information and the shooting position information stored in association with the construction actual image 20a photographed together with the A marker 21a are acquired from the information storage area 14a (S16), and the image data of the construction actual image 20a is acquired. And the inclination of the wall 30 with respect to the shooting direction is calculated (S17). For example, as shown in FIG. 2, the actual construction image 20 a is displayed on the display unit 16 so that the length indicating the height on the right end side of the wall 30 is shorter than the length indicating the height on the left end side of the wall 30. ing. For this reason, the length of the right end side of the A marker 21a, the length of the left end side of the A marker 21a, and the width of the A marker 21a are measured from the image data of the actual image 20a during construction. The inclination of the wall 30 with respect to the shooting direction is calculated from the measured value and the actual size of the A marker 21a stored in the information storage area 14a.

次に、Bマーカー21bとともに撮影された竣工後実画像20bに対応づけて記憶されているマーカー位置情報及び撮影位置情報を情報記憶領域14aから取得し、竣工後実画像20bの画像データを解析して撮影方向に対する壁30の傾きを算出する(S18)。このとき、竣工後実画像20bは、図6に示すように、壁30の右端側の高さと壁30の左端側の高さとが等しいので、竣工後実画像20bの撮影方向は壁30に対して直交する正面からの撮影であることが検出される。また、算出した施工時実画像20aと竣工後実画像20bの撮影方向及び傾きと、Aマーカー21a及びBマーカー21bのマーカー位置情報とから、施工時実画像20aと竣工後実画像20bとの撮影位置のズレを算出する。   Next, the marker position information and shooting position information stored in association with the actual image 20b after completion taken with the B marker 21b are acquired from the information storage area 14a, and the image data of the actual image 20b after completion is analyzed. Then, the inclination of the wall 30 with respect to the photographing direction is calculated (S18). At this time, the post-completion actual image 20b has the same height as the right end of the wall 30 and the left end of the wall 30 as shown in FIG. Thus, it is detected that the image is taken from the front perpendicular to each other. Further, based on the calculated shooting direction and inclination of the actual image 20a and the actual image 20b after completion and the marker position information of the A marker 21a and the B marker 21b, the actual image 20a and the actual image 20b after completion are captured. Calculate the positional deviation.

そして、施工時実画像20aと竣工後実画像20bの撮影方向及び傾きと、施工時実画像20aと竣工後実画像20bとの撮影位置のズレとに基づいて、施工時実画像20aの画像データを加工して、図7に示すように、施工時実画像20aを、竣工後実画像20bの撮影方向と同じ方向から撮影したように位置決めした仮想画像23に加工する(S19)。   The image data of the construction actual image 20a is based on the shooting direction and inclination of the construction actual image 20a and the completed actual image 20b, and the deviation of the photographing position between the construction actual image 20a and the construction actual image 20b. As shown in FIG. 7, the actual image 20a at the time of construction is processed into a virtual image 23 positioned so as to be photographed from the same direction as the photographing direction of the actual image 20b after completion (S19).

次に、施工時実画像20aを加工した仮想画像23を、使用者によりタッチパネルから指定された領域の大きさにすべく、指定された領域の外側の画像を削除し(S20)、指定された領域の画像に加工された仮想画像23の画像データを、画像仮想展開領域14bに記憶されている竣工後実画像20bの画像データを書き換える(S21)。これにより、図6(c)に示すように、竣工後実画像の指定された領域に配筋の状態が示された仮想画像が合成された合成画像24が生成される。ここで、図3におけるS19〜S21の処理が画像合成工程に相当する。   Next, in order to make the virtual image 23 obtained by processing the actual image 20a at the time of construction the size of the area designated from the touch panel by the user, the image outside the designated area is deleted (S20). The image data of the virtual image 23 processed into the image of the area is rewritten with the image data of the completed actual image 20b stored in the image virtual development area 14b (S21). As a result, as shown in FIG. 6C, a composite image 24 is generated in which a virtual image in which the state of the bar arrangement is shown in the designated area of the actual image after completion is combined. Here, the processing of S19 to S21 in FIG. 3 corresponds to an image composition step.

最後に、画像仮想展開領域14bに記憶されている合成画像24の画像データに基づいて合成画像24を表示部16に表示する(S22)。   Finally, the composite image 24 is displayed on the display unit 16 based on the image data of the composite image 24 stored in the image virtual development area 14b (S22).

本実施形態の画像合成方法によれば、Aマーカー21aにより位置が特定された施工時実画像20aと、Bマーカー21bにより位置が特定され、施工時にAマーカー21aとともに撮影された領域を含み、竣工後にBマーカー21bを含む領域を撮影した竣工後実画像20bと、をAマーカー21aに対応づけられたx座標、y座標、z座標とBマーカー21bに対応づけられたx座標、y座標、z座標とに基づいて位置決めし、使用者に指定された領域に合わせた仮想画像23を形成して合成するので、施工時実画像20aから加工した仮想画像23を竣工後実画像20bの、より正確な位置に合成することが可能である。このとき、施工時実画像20aにはAマーカー21aが含まれており、竣工後実画像20bにはBマーカー21bが含まれているので、施工時実画像20a及び竣工後実画像20bを撮影するだけで施工時実画像20aから加工した仮想画像23及び竣工後実画像20bの位置を容易に特定し、施工時実画像20aから加工した仮想画像23と竣工後実画像20bとを位置的に対応づけることが可能である。このため、施工時実画像20aから加工した仮想画像23を竣工後実画像20bに、より正確に配置して容易に合成することが可能である。   According to the image synthesizing method of the present embodiment, the image includes the actual image 20a at the time of construction whose position is specified by the A marker 21a and the region whose position is specified by the B marker 21b and photographed together with the A marker 21a at the time of construction. An actual image 20b after completion of photographing an area including the B marker 21b later, and an x coordinate, y coordinate, z coordinate associated with the A marker 21a, and an x coordinate, y coordinate, z associated with the B marker 21b Positioning based on the coordinates, and forming and synthesizing the virtual image 23 according to the area specified by the user, the virtual image 23 processed from the construction actual image 20a is more accurate than the actual image 20b after completion. It is possible to synthesize at any position. At this time, the construction actual image 20a includes the A marker 21a, and the post-completion actual image 20b includes the B marker 21b. Therefore, the construction actual image 20a and the post-completion actual image 20b are photographed. By simply identifying the positions of the virtual image 23 processed from the actual image 20a at the time of construction and the actual image 20b after completion, the virtual image 23 processed from the actual image 20a at the time of construction and the actual image 20b after completion are associated with each other It is possible to attach. For this reason, it is possible to arrange the virtual image 23 processed from the actual image 20a at the time of construction on the actual image 20b after completion more accurately and easily synthesize it.

また、竣工後実画像20bの画像データに合成する施工時実画像20aの画像データは、施工時と竣工後の撮影時の、撮影位置、視点からの距離及び撮影方向が互いに相違したとしても、施工時実画像20aを竣工後実画像20bの撮影位置、視点からの距離及び撮影方向に対応させて加工するので、施工時実画像20aを竣工後実画像20bと同じ距離及び同じ方向から撮影したような仮想画像23として生成することが可能である。そして、生成した仮想画像23を竣工後実画像20に合成するので、一度に撮影したように重ね合わせられた合成画像を生成することが可能である。   In addition, even if the image data of the construction actual image 20a to be combined with the image data of the actual image 20b after completion is different from each other in the photographing position, the distance from the viewpoint, and the photographing direction at the time of construction and photographing after completion, Since the actual image 20a at the time of construction is processed according to the shooting position, distance from the viewpoint, and the shooting direction of the actual image 20b after completion, the actual image 20a at the time of construction was shot from the same distance and the same direction as the actual image 20b after completion. Such a virtual image 23 can be generated. And since the produced | generated virtual image 23 is synthesize | combined with the real image 20 after completion, it is possible to produce | generate the synthesized image superimposed as if it image | photographed at once.

また、施工時実画像20aは、Aマーカー21aに対応づけられたマーカー位置情報、撮影時に計測された視点との距離、及び、撮影の方向に基づいて、3Dモデル33に対応づけて記憶されているので、撮影された二次元の施工時実画像20aを、撮影する被写体を立体的にモデル化した3Dモデル33に対応づけることにより、施工時実画像20aに三次元の座標情報を付して記憶しておくことが可能である。   The actual construction image 20a is stored in association with the 3D model 33 based on the marker position information associated with the A marker 21a, the distance from the viewpoint measured during photographing, and the photographing direction. Therefore, by associating the photographed two-dimensional actual construction image 20a with the 3D model 33 in which the subject to be photographed is three-dimensionally modeled, three-dimensional coordinate information is attached to the construction actual image 20a. It is possible to memorize it.

上記実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれることはいうまでもない。   The above embodiment is for facilitating the understanding of the present invention, and is not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.

上記実施形態においては、Aマーカー21aを正確な位置に配置した例について説明したが、必ずしもAマーカー21aが正確に計測された位置に設けられている必要はなく、たとえば、Aマーカー21aとは異なり正確に計測された基準マーカー等が設けられており、基準マーカーとAマーカー21aとが撮影範囲に含まれるように撮影した実画像を解析して、Aマーカー21aの正確な位置を算出しても構わない。   In the above embodiment, the example in which the A marker 21a is arranged at an accurate position has been described. However, the A marker 21a does not necessarily have to be provided at the accurately measured position. For example, unlike the A marker 21a, An accurate measurement of a reference marker or the like is provided, and an actual image captured so that the reference marker and the A marker 21a are included in the imaging range is analyzed to calculate an accurate position of the A marker 21a. I do not care.

上記実施形態では、静止画像を合成する例について説明したが、動画を合成する場合には、動画のフレームレートに合わせて、合成した画像を生成して表示すればよい。例えば、フレームレートが15fpsであれば、1秒間に15回、上記のように画像の合成処理を繰り返し表示部の画像を書き換えることにより実現可能である。   In the above embodiment, an example of combining still images has been described. However, when combining moving images, a combined image may be generated and displayed in accordance with the frame rate of the moving images. For example, if the frame rate is 15 fps, it can be realized by rewriting the image on the display unit by repeating the image composition processing as described above 15 times per second.

1 画像合成装置
10 撮像部
12 制御部
14 記憶部
14a 情報記憶領域
14b 画像仮想展開領域
16 表示部
16a 液晶パネル
18 操作部
18a タッチパネル
20 実画像
20a 施工時実画像
20b 竣工後実画像
21 マーカー
21a Aマーカー
21b Bマーカー
23 仮想画像
24 合成画像
30 壁
31 鉄筋
32 枠
33 3Dモデル
F1 施工時における撮影範囲
F2 竣工後における撮影範囲
DESCRIPTION OF SYMBOLS 1 Image composition apparatus 10 Image pick-up part 12 Control part 14 Storage part 14a Information storage area 14b Image virtual expansion | deployment area | region 16 Display part 16a Liquid crystal panel 18 Operation part 18a Touch panel 20 Real image 20a Construction actual image 20b Completion actual image 21 Marker 21a A Marker 21b B marker 23 Virtual image 24 Composite image 30 Wall 31 Reinforcing bar 32 Frame 33 3D model F1 Shooting range at construction F2 Shooting range after completion

Claims (2)

第1領域を撮影する際の撮影範囲内に、位置を特定可能な第1位置情報被写体を含ませて前記第1領域を撮影して第1領域画像の画像データを生成する撮影工程と、
前記第1領域画像と、前記第1位置情報被写体にて特定される第1位置と、を対応づけて記憶する記憶工程と、
前記第1領域を含む第2領域に第2位置情報被写体を含ませて前記第2領域を撮影した第2領域画像の画像データに、前記第2位置情報被写体にて特定される第2位置と前記第1位置とに基づいて位置決めして前記第1領域画像の画像データを合成する画像合成工程と、
を有し、
前記第1領域の撮影時及び前記第2領域の撮影時には、撮影の視点と前記第1位置情報被写体及び前記第2位置情報被写体との距離を計測するとともに撮影の方向を特定し、
特定した前記視点との距離、前記撮影の方向、及び、前記第1位置情報被写体及び前記第2位置情報被写体のマーカー位置情報に基づいて、前記第2領域画像の画像データに合成する前記第1領域画像の画像データを加工して、前記第1領域画像と合成することを特徴とする画像合成方法。
A shooting step of shooting the first area by including a first position information subject whose position can be specified within a shooting range when shooting the first area, and generating image data of the first area image;
A storage step of storing the first region image and the first position specified by the first position information subject in association with each other;
A second position specified by the second position information subject in image data of a second region image obtained by photographing the second area by including the second position information subject in the second area including the first area; An image combining step of combining the image data of the first region image by positioning based on the first position;
Have
During shooting of the first region and shooting of the second region, the distance between the shooting viewpoint and the first position information subject and the second position information subject is measured and the shooting direction is specified,
Based on the identified distance from the viewpoint, the shooting direction, and the marker position information of the first position information subject and the second position information subject, the first region to be combined with the image data of the second region image An image composition method comprising processing image data of a region image and combining it with the first region image .
請求項1に記載の画像合成方法であって、
前記第1領域画像は、前記第1位置情報被写体に対応づけられたマーカー位置情報、撮影時に計測された前記視点との距離、及び、前記撮影の方向に基づいて、撮影する被写体を立体的にモデル化した立体モデルに対応づけて記憶されていることを特徴とする画像合成方法。
The image composition method according to claim 1 ,
The first area image is a three-dimensional image of a subject to be photographed based on marker position information associated with the first position information subject, a distance from the viewpoint measured at the time of photographing, and the direction of photographing. An image composition method characterized by being stored in association with a modeled stereo model.
JP2011038750A 2011-02-24 2011-02-24 Image composition method Active JP5691630B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011038750A JP5691630B2 (en) 2011-02-24 2011-02-24 Image composition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011038750A JP5691630B2 (en) 2011-02-24 2011-02-24 Image composition method

Publications (2)

Publication Number Publication Date
JP2012175667A JP2012175667A (en) 2012-09-10
JP5691630B2 true JP5691630B2 (en) 2015-04-01

Family

ID=46978075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011038750A Active JP5691630B2 (en) 2011-02-24 2011-02-24 Image composition method

Country Status (1)

Country Link
JP (1) JP5691630B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6992329B2 (en) * 2017-08-30 2022-01-13 中国電力株式会社 Reinforcing bar position confirmation system
JP7128013B2 (en) * 2018-04-05 2022-08-30 株式会社東芝 Buried object recognition method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9119964D0 (en) * 1991-09-18 1991-10-30 Sarnoff David Res Center Pattern-key video insertion
JP2004342067A (en) * 2003-04-22 2004-12-02 3D Media Co Ltd Image processing method, image processor and computer program
JP2006018444A (en) * 2004-06-30 2006-01-19 Taisei Corp Image processing system and additional information indicating device

Also Published As

Publication number Publication date
JP2012175667A (en) 2012-09-10

Similar Documents

Publication Publication Date Title
KR101813834B1 (en) Image processing device, image processing method, image processing program and photographing assist equipment
TWI523517B (en) Image capture device, image alignment method, and the storage medium for executing the method
JP6329343B2 (en) Image processing system, image processing apparatus, image processing program, and image processing method
JP4878083B2 (en) Image composition apparatus and method, and program
US9343043B2 (en) Methods and apparatus for generating composite images
US20130314493A1 (en) Imaging apparatus, photographing guide displaying method for imaging apparatus, and non-transitory computer readable medium
JP2012015674A (en) Imaging device, operation control method for imaging device, and program for imaging device
JP2010108384A (en) Construction verification device
JP2007147422A (en) Measurement system, image processor, and method
JP5387668B2 (en) Information processing terminal, information processing method, and program
KR101574636B1 (en) Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage
JP6514418B2 (en) Imaging system, imaging method, and program
KR20160125715A (en) 3d scanner and 3d scanning method
CN103856715B (en) Imaging device and method
JP5691629B2 (en) Image composition method
JP5691630B2 (en) Image composition method
JP2017151026A (en) Three-dimensional information acquiring device, three-dimensional information acquiring method, and program
KR101082545B1 (en) Mobile communication terminal had a function of transformation for a picture
JP4581512B2 (en) Three-dimensional image processing apparatus, optical axis adjustment method, and optical axis adjustment support method
JP5776218B2 (en) Image composition method
JP5764969B2 (en) Image composition method
CA2822946C (en) Methods and apparatus for generating composite images
JP7346245B2 (en) Construction site recording program
JP5691632B2 (en) Image composition method
JP5691631B2 (en) Image composition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150119

R150 Certificate of patent or registration of utility model

Ref document number: 5691630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150