JP2021068272A - Image processing system, image processing method and program - Google Patents
Image processing system, image processing method and program Download PDFInfo
- Publication number
- JP2021068272A JP2021068272A JP2019194285A JP2019194285A JP2021068272A JP 2021068272 A JP2021068272 A JP 2021068272A JP 2019194285 A JP2019194285 A JP 2019194285A JP 2019194285 A JP2019194285 A JP 2019194285A JP 2021068272 A JP2021068272 A JP 2021068272A
- Authority
- JP
- Japan
- Prior art keywords
- light source
- information
- image
- shape
- target space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 39
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000000034 method Methods 0.000 claims description 67
- 238000003384 imaging method Methods 0.000 claims description 37
- 230000006870 function Effects 0.000 claims description 6
- 239000002131 composite material Substances 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 description 26
- 238000010801 machine learning Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 14
- 230000011218 segmentation Effects 0.000 description 11
- 239000000284 extract Substances 0.000 description 10
- 238000009877 rendering Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000007634 remodeling Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、画像処理システム、画像処理方法及びプログラムに関する。 The present invention relates to an image processing system, an image processing method and a program.
建物のリフォームや備品の追加などを行う際、実際にリフォームする前、あるいは備品を配置する前に、予め完了後の見えを確認したい場合がある。
例えば、備品として家具、壁、設備を追加したり、追加した家具の配置する位置を検討したりする場合、備品を配置した際にどのような印象となるか、すなわち配置している備品が部屋の環境に調和するか否かを、シミュレーション結果の画像により視覚的に検討したいという要望がある。
このとき、部屋の光源が正確に仮想空間で反映されない場合、シミュレーション時における見えから得た印象と、実際に行ったレイアウト変更における見えから得られる印象とが、大きく異なってしまう場合がある。
When remodeling a building or adding equipment, it may be desirable to check the appearance after completion in advance before actually remodeling or arranging equipment.
For example, when adding furniture, walls, and equipment as equipment, or considering the position of the added furniture, what kind of impression will be given when the equipment is placed, that is, the equipment that is placed is the room. There is a request to visually examine whether or not it is in harmony with the environment of the furniture by using the image of the simulation result.
At this time, if the light source of the room is not accurately reflected in the virtual space, the impression obtained from the appearance in the simulation and the impression obtained from the appearance in the actual layout change may be significantly different.
このため、リフォーム対象の空間である対象空間を撮像した撮像画像から、この対象空間の三次元形状を仮想空間としてモデル化し、備品をこの仮想空間に配置して、仮想空間における室内などにおける備品の見えを、仮想空間を用いてシミュレーションすることが行われる。
このとき、仮想空間における物品の見えをより対象空間に近づけるため、対象空間としての室内における光源の光源情報を正確に推定して、この光源情報に基づいて仮想空間における仮想光源を生成することが行われている(例えば、特許文献1参照)。
For this reason, the three-dimensional shape of this target space is modeled as a virtual space from the captured image of the target space, which is the space to be reformed, and the equipment is arranged in this virtual space to display the equipment in the room or the like in the virtual space. The appearance is simulated using virtual space.
At this time, in order to make the appearance of the article in the virtual space closer to the target space, it is possible to accurately estimate the light source information of the light source in the room as the target space and generate a virtual light source in the virtual space based on this light source information. It has been done (see, for example, Patent Document 1).
しかしながら、引用文献1においては、対象空間の撮像画像を撮像する際、予め既知光源下で撮像した基準画像が用意されている、形状が既知である物体を対象空間に対して配置し、撮像画像に撮像されている物体の画像と、基準画像とを対比することに光源情報を推定している。
このため、形状が既知の物体を準備し、かつこの物体の画像を既知光源下で撮像して基準画像を準備する必要があり、対象空間の撮像を行うまでに手間が掛かってしまう。
However, in
Therefore, it is necessary to prepare an object having a known shape, and to prepare an image of this object under a known light source to prepare a reference image, which takes time and effort to image the target space.
また、この方法においては、光源の放射する光の情報のみを推定することしかできず、放射光が放射される空間の三次元形状が不明である。
このため、光源から放射される光が遮蔽されたり、反射されたりするかが不明であり、対象空間に対応した見えを、高い精度で仮想空間においてシミュレーションすることができない。
Further, in this method, only the information of the light emitted from the light source can be estimated, and the three-dimensional shape of the space in which the radiated light is emitted is unknown.
Therefore, it is unclear whether the light emitted from the light source is shielded or reflected, and it is not possible to simulate the appearance corresponding to the target space in the virtual space with high accuracy.
本発明は、このような状況に鑑みてなされたもので、形状が既知の物体を準備し、かつこの物体の画像を既知光源下で撮像して基準画像を準備する必要がなく、現実の対象空間の撮像画像と、この対象空間の三次元形状モデルとから、対象空間における少なくとも光源の位置及び強度の情報を推定する画像処理システム、画像処理方法及びプログラムを提供する。 The present invention has been made in view of such a situation, and it is not necessary to prepare an object having a known shape and to take an image of this object under a known light source to prepare a reference image, which is an actual object. Provided are an image processing system, an image processing method, and a program for estimating at least information on the position and intensity of a light source in the target space from an captured image of the space and a three-dimensional shape model of the target space.
本発明の画像処理システムは、対象空間が撮像された単一あるいは複数の撮像画像から、前記対象空間の少なくとも三次元形状を含む空間形状情報を推定する形状情報推定部と、前記撮像画像及び前記空間形状情報から、前記対象空間における光源の少なくとも位置及び強度を含む光源情報を推定する光源情報推定部とを備えることを特徴とする。 The image processing system of the present invention includes a shape information estimation unit that estimates spatial shape information including at least a three-dimensional shape of the target space from a single or a plurality of captured images of the target space, the captured image, and the above-mentioned image processing system. It is characterized by including a light source information estimation unit that estimates light source information including at least the position and intensity of the light source in the target space from the space shape information.
本発明の画像処理システムは、前記光源情報推定部が、前記撮像画像及び前記空間形状情報から、前記対象空間における三次元形状の反射率情報を推定し、当該反射率情報を用いて前記光源情報を推定することを特徴とする。 In the image processing system of the present invention, the light source information estimation unit estimates the reflectance information of the three-dimensional shape in the target space from the captured image and the space shape information, and uses the reflectance information to estimate the light source information. Is characterized by estimating.
本発明の画像処理システムは、前記光源情報推定部が、前記撮像画像の画素値と、前記反射率情報、前記光源情報及び前記空間形状情報の各々との関係を示す所定の式から、前記推定した前記反射率情報を用いて前記光源情報を推定することを特徴とする。 In the image processing system of the present invention, the light source information estimation unit estimates the pixel value of the captured image from a predetermined formula showing the relationship between the reflectance information, the light source information, and the spatial shape information. It is characterized in that the light source information is estimated using the reflectance information obtained.
本発明の画像処理システムは、前記撮像画像、前記空間形状情報及び前記光源情報から、前記撮像画像の所定の位置に対して、所定のオブジェクトの形状モデルを配置した仮想空間の観察画像を生成する画像合成部をさらに備えることを特徴とする。 The image processing system of the present invention generates an observation image of a virtual space in which a shape model of a predetermined object is arranged at a predetermined position of the captured image from the captured image, the spatial shape information, and the light source information. It is characterized by further including an image compositing unit.
本発明の画像処理システムは、前記撮像画像、前記空間形状情報及び前記光源情報から、前記撮像画像の所定の位置に対して、前記所定のオブジェクトの形状モデルを配置し、当該形状モデルを配置した影響が反映された仮想空間の観察画像を生成する画像合成部をさらに備えることを特徴とする。 In the image processing system of the present invention, the shape model of the predetermined object is arranged at a predetermined position of the captured image from the captured image, the spatial shape information, and the light source information, and the shape model is arranged. It is characterized by further including an image compositing unit that generates an observation image of a virtual space in which the influence is reflected.
本発明の画像処理システムは、前記光源情報推定部が、前記三次元形状の反射率情報と前記空間形状情報と前記光源情報から、IBL(image based lighting)情報を生成することを特徴とする。 The image processing system of the present invention is characterized in that the light source information estimation unit generates IBL (image based lighting) information from the reflectance information of the three-dimensional shape, the spatial shape information, and the light source information.
本発明の画像処理システムは、前記形状情報推定部が、前記対象空間における構造部とオブジェクト部との三次元形状の各々を別々に推定し、前記構造部、前記オブジェクト部それぞれの三次元形状を合成して、前記対象空間全体の三次元形状モデルを生成することを特徴とする。 In the image processing system of the present invention, the shape information estimation unit separately estimates each of the three-dimensional shapes of the structural part and the object part in the target space, and obtains the three-dimensional shape of each of the structural part and the object part. It is characterized in that a three-dimensional shape model of the entire target space is generated by synthesizing.
本発明の画像処理システムは、前記形状情報推定部が、前記対象空間の三次元形状と、当該対象空間における物体認識情報を含む前記光源の形状情報を推定することを特徴とする。 The image processing system of the present invention is characterized in that the shape information estimation unit estimates the three-dimensional shape of the target space and the shape information of the light source including the object recognition information in the target space.
本発明の画像処理システムは、前記撮像画像を撮像した際の撮像条件を取得する撮像条件取得部をさらに備えることを特徴とする。 The image processing system of the present invention is further provided with an imaging condition acquisition unit that acquires imaging conditions when the captured image is captured.
本発明の画像処理方法は、形状情報推定部が、対象空間が撮像された単一あるいは複数の撮像画像から、前記対象空間の少なくとも三次元形状を含む空間形状情報を推定する形状情報推定過程と、光源情報推定部が、前記撮像画像及び前記空間形状情報から、前記対象空間における光源の少なくとも位置及び強度を含む光源情報を推定する光源情報推定過程とを含むことを特徴とする。 The image processing method of the present invention includes a shape information estimation process in which the shape information estimation unit estimates spatial shape information including at least a three-dimensional shape of the target space from a single or a plurality of captured images in which the target space is captured. The light source information estimation unit includes a light source information estimation process for estimating light source information including at least the position and intensity of the light source in the target space from the captured image and the space shape information.
本発明のプログラムは、コンピュータを、対象空間が撮像された単一あるいは複数の撮像画像から、前記対象空間の少なくとも三次元形状を含む空間形状情報を推定する形状情報推定手段、前記撮像画像及び前記空間形状情報から、前記対象空間における光源の少なくとも位置及び強度を含む光源情報を推定する光源情報推定手段として機能させるプログラムである。 The program of the present invention is a shape information estimation means for estimating spatial shape information including at least a three-dimensional shape of the target space from a single or a plurality of captured images in which the target space is captured, the captured image, and the above. This is a program that functions as a light source information estimation means for estimating light source information including at least the position and intensity of a light source in the target space from space shape information.
以上説明したように、本発明によれば、形状が既知の物体を準備し、かつこの物体の画像を既知光源下で撮像して基準画像を準備する必要がなく、現実の対象空間の撮像画像と、この対象空間の三次元形状モデルとから、対象空間における光源の情報を推定し、三次元形状モデルの任意の点における光の入射を正確に再現する画像処理システム、画像処理方法及びプログラムを提供することが可能となる。 As described above, according to the present invention, it is not necessary to prepare an object having a known shape and to capture an image of this object under a known light source to prepare a reference image, and an image captured in an actual target space. An image processing system, an image processing method, and a program that estimate the information of the light source in the target space from the three-dimensional shape model of the target space and accurately reproduce the incident of light at an arbitrary point of the three-dimensional shape model. It will be possible to provide.
以下、図1における画像処理システムの構成例について、図面を参照して説明する。
図1は、本発明の一実施形態による画像処理システムの構成例を示すブロック図である。図1において、画像処理システム10は、データ入出力部11、撮像条件取得部12、形状情報推定部13、光源情報推定部14、画像合成部15、表示制御部16、表示部17、撮像画像記憶部18、空間情報記憶部19及び合成画像記憶部20の各々を備えている。
ここで、画像処理システム10は、パーソナルコンピュータ、タブレット端末、スマートフォンなどに、以下に説明する各機能部より画像処理を行なうアプリケーションをインストールすることにより構成される。
Hereinafter, a configuration example of the image processing system in FIG. 1 will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration example of an image processing system according to an embodiment of the present invention. In FIG. 1, the
Here, the
データ入出力部11は、シミュレーションを行う対象空間が撮像された撮像画像を外部装置から入力し、撮像画像識別情報を付与して、撮像画像記憶部18に対して書き込んで記憶させる。
撮像条件取得部12は、対象空間の撮像画像を撮像した際の撮像条件を取得し、それぞれの撮像画像の撮像画像識別情報に対応させ、撮像画像記憶部18に対して書き込んで記憶させる。この撮像条件は、撮像装置のカメラパラメータ、センササイズ、撮像装置から対象空間の三次元形状までの実寸サイズの距離、撮像画像の画素数、撮像した撮像位置の位置関係、また動画であればフレームレートなどである。また、撮像条件において撮像画像のExif(exchangeable image file format )情報から取得可能な情報は、ユーザが入力する必要はない。実寸サイズの距離は、単一画像の場合には撮像する対象空間に対して、大きさの判っているマーカを置いて、そのマーカの画像を元に距離の算出を行う。
The data input /
The imaging
形状情報推定部13は、撮像画像記憶部18に記憶されている撮像画像から、撮像した対象空間の三次元形状を推定して、三次元形状モデル(仮想空間)を含む空間形状情報を生成する。
そして、形状情報推定部13は、生成した空間形状情報を空間情報記憶部19に対して書き込んで記憶させる。この空間形状情報は、少なくとも、対象空間の三次元形状モデルのデータ、法線ベクトルなどを含んでいる。
本実施形態において、形状情報推定部13は、以下に示す3つの三次元形状推定方法により、三次元形状モデルの生成を行う。
The shape
Then, the shape
In the present embodiment, the shape
三次元形状推定方法(1):
形状情報推定部13は、機械学習モデルを利用し、対象空間が撮像された一枚の撮像画像(RGB画像)から直接にデプスマップを推定する(例えば、Ibraheem Alhashim, Peter Wonka"High Quality Monocular Depth Estimation via Transfer Learning" CoRR, Vol. abs/1901.03861, 2019.の文献に記載されている手法を用いる)。
形状情報推定部13は、求めたデプスマップに基づいて、撮像画像の各画素における三次元点群及び法線を算出し、三次元点群をメッシュ化することができる。
そして、三次元点群は、メッシュ化された三次元形状モデルである仮想空間の情報を空間形状情報として、撮像画像記憶部18に対して、撮像画像に対応させて書き込んで記憶させる。
Three-dimensional shape estimation method (1):
The shape
The shape
Then, the three-dimensional point cloud writes and stores the information of the virtual space, which is a meshed three-dimensional shape model, as the spatial shape information in the captured
また、同一の対象空間が異なる撮像位置から撮像された複数の撮像画像が存在する場合、形状情報推定部13は、同一の対象空間が撮像されていることを利用して、SfM(structure from motion)のアルゴリズムによって、撮像画像の各々の撮像位置間の位置関係の推定を行う。
そして、形状情報推定部13は、撮像画像の各々から求められたデプスマップそれぞれを統合して、より精度の高い対象空間のデプスマップを生成する。
Further, when there are a plurality of captured images captured from different imaging positions in the same target space, the shape
Then, the shape
三次元形状推定方法(2):
また、同一の対象空間が異なる撮像位置から撮像された複数の撮像画像が存在する場合、形状情報推定部13は、MVS(Multi-View Stereo) のアルゴリズムを用いて、複数の撮像画像を用いて対象空間の三次元形状の推定を行い、三次元形状モデルである仮想空間を生成して空間形状情報としても良い。
Three-dimensional shape estimation method (2):
Further, when there are a plurality of captured images captured from different imaging positions in the same target space, the shape
三次元形状推定方法(3):
また、形状情報推定部13は、対象空間における部屋構造部と、それ以外の部屋に配置されたオブジェクト部(部屋の備品など)との各々を、それぞれ別々に形状モデルを求めるアルゴリズムを用いても良い。
形状情報推定部13は、以下の図2に示されているように、撮像画像から天井と壁、壁と床の境界部を抽出する。
Three-dimensional shape estimation method (3):
Further, the shape
As shown in FIG. 2 below, the shape
図2は、撮像画像から部屋における天井、壁及び床の境界部を抽出し、デプスマップを求める処理を説明する図である。図2(a)は、撮像画像100を示している。撮像画像100には、対象空間の部屋200における天井200C、壁200W、床200F、柱200P、テーブル200T、光源200Lなどが撮像されている。
図2(b)は、天井200C及び壁200Wの境界部200CWと、壁200W及び床200Fの境界部200WFとが示されてる。また、図2(b)において、柱200P、テーブル200T及び光源200Lに関する情報は抽出されていない。
図2(c)は、図2(a)の撮像画像と、図2(b)の境界部とから求めたデプスマップを示している。
FIG. 2 is a diagram illustrating a process of extracting a boundary portion between a ceiling, a wall, and a floor in a room from a captured image and obtaining a depth map. FIG. 2A shows the captured
FIG. 2B shows a boundary portion 200CW between the
FIG. 2C shows a depth map obtained from the captured image of FIG. 2A and the boundary portion of FIG. 2B.
そして、形状情報推定部13は、マンハッタンワールド仮説を用いて、図2(a)の撮像画像と、図2(b)の境界部とから、三次元空間の3軸(x軸、y軸及びz軸)に対応して、天井、壁及び床を検出して、それぞれのデプスマップを生成する。この天井、壁及び床の検出を、機械学習モデル(例えば、CNN(convolutional neural network))によりRGB画像から直接行なうものとして、例えば、"Chuhang Zou, Alex Colburn, Qi Shan, Derek Hoiem"LayoutNet: Reconstructing the 3D Room Layout from a Single RGB Image" Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018, pp. 2051-2059."がある。
また、形状情報推定部13は、セマンティックセグメンテーションを行う機械学習モデル(例えば、CNN)により、撮像画像におけるオブジェクトの各々の領域を抽出する。
図3は、セマンティックセグメンテーションを行う機械学習モデルにより対象空間のオブジェクトの領域分割を示す図である。図3において、撮像画像に撮像された対象空間の各オブジェクトの領域がセグメントとして分離されている。
形状情報推定部13は、セマンティックセグメンテーションを行う機械学習モデルを用いて、撮像画像100の画像において、天井200C、壁200W、床200Fの構造部と、柱200P、光源200L_1、200L_2、テーブル200Tなどのオブジェクト部の各々の画像領域として分離する。
Then, the shape
Further, the shape
FIG. 3 is a diagram showing the region division of an object in the target space by a machine learning model that performs semantic segmentation. In FIG. 3, the regions of each object in the target space captured in the captured image are separated as segments.
The shape
上述したように、形状情報推定部13は、対象空間の部屋の撮像画像を、部屋構造部(天井、壁、床)やオブジェクト部(備品としての柱、机(テーブル)、椅子、棚などの家具)などの領域に分割することで、それぞれの領域を認識する。
また、形状情報推定部13は、三次元形状推定方法(1)で説明した機械学習モデルを利用し、対象空間が撮像された一枚の撮像画像(RGB画像)から直接にデプスマップを推定する。
そして、形状情報推定部13は、図3のセマンティックセグメンテーション結果における対象空間が分離された画像領域から、部屋構造部の領域を除いたオブジェクト部の領域として柱200P及びテーブル200Tの領域を抽出する。
As described above, the shape
Further, the shape
Then, the shape
図4は、機械学習モデルで生成したデプスマップとマンハッタンワールド仮説により生成したデプスマップとの合成を説明する図である。
図4(a)は、三次元形状推定方法(1)で説明した機械学習モデルにより生成したデプスマップから、セマンティックセグメンテーション結果におけるオブジェクト部の柱200P及びテーブル200Tの領域を用いて抽出した、柱200P、テーブル200Tそれぞれのデプスマップを示している。
図4(b)は、図2(c)に示すマンハッタンワールド仮説により生成した部屋構造部のデプスマップと、図4(a)に示すオブジェクト部のデプスマップとをスケーリングして統合した対象空間のデプスマップの一例を示している。
FIG. 4 is a diagram for explaining the composition of the depth map generated by the machine learning model and the depth map generated by the Manhattan World hypothesis.
FIG. 4A is a
FIG. 4B shows a target space in which the depth map of the room structure generated by the Manhattan world hypothesis shown in FIG. 2C and the depth map of the object portion shown in FIG. 4A are scaled and integrated. An example of a depth map is shown.
形状情報推定部13は、図4(b)に示すように、機械学習モデルで生成したデプスマップとマンハッタンワールド仮説により生成したデプスマップとの合成を行う。
これにより、マンハッタンワールド仮説は、人工物の多くがそれぞれの面が直交座標系に平行に拘束されているという仮定になりたつため、天井、壁及び床などの部屋構造部におけるデプスマップを高い精度で得ることができる。
しかしながら、対象空間におけるテーブルや椅子などのオブジェクト部については、上記拘束に対応しないためにデプスマップが生成されない。
As shown in FIG. 4B, the shape
As a result, the Manhattan World hypothesis is based on the assumption that many of the artifacts are constrained in parallel to the Cartesian coordinate system, so that depth maps in room structures such as ceilings, walls, and floors can be accurately mapped. Obtainable.
However, the depth map is not generated for the object part such as the table or the chair in the target space because it does not correspond to the above constraint.
一方、三次元形状推定方法(1)で説明した機械学習モデルにより生成したデプスマップにおいては、対象空間におけるオブジェクト部についてもデプスマップが生成される。
しかしながら、機械学習で求めたデプスマップにおいては、いずれがオブジェクト部のデプスマップの存在する領域かを認識することができない。
このため、形状情報推定部13は、機械学習で求めたデプスマップにおけるオブジェクト部(200P、200T)の領域を用いて、図3に示すセマンティックセグメンテーションにおけるオブジェクト部の領域により抽出して、図4(a)に示すオブジェクト部の領域のデプスマップを取得する。これにより、部屋構造部とオブジェクト部とのデプスマップとを別々に得ることができる。
このとき、形状情報推定部13は、図3の部屋構造部の値に基づいて、機械学習で求めたデプスマップから抽出したオブジェクト部のデプスマップのスケーリングを行う。
On the other hand, in the depth map generated by the machine learning model described in the three-dimensional shape estimation method (1), the depth map is also generated for the object part in the target space.
However, in the depth map obtained by machine learning, it is not possible to recognize which is the area where the depth map of the object part exists.
Therefore, the shape
At this time, the shape
この三次元形状推定方法(3)により、オブジェクト部により遮蔽されていた部屋構造部の三次元形状を示すデプスマップを、三次元形状推定方法(1)で用いて得たデプスマップより高い精度で得ることができる。
そして、形状情報推定部13は、部屋構造部及びオブジェクト部の各々のデプスマップを用いて、それぞれについて三次元点群及び各三次元点における法線を求め、これら三次元点群点のメッシュ化を行ない、空間形状情報として空間情報記憶部19に対して書き込んで記憶させる。
この手法によって、オブジェクト部により遮蔽されていた部屋構造部の三次元形状を記憶することが可能となる。
By this three-dimensional shape estimation method (3), the depth map showing the three-dimensional shape of the room structure part shielded by the object part is more accurate than the depth map obtained by using the three-dimensional shape estimation method (1). Obtainable.
Then, the shape
By this method, it becomes possible to memorize the three-dimensional shape of the room structure portion shielded by the object portion.
また、同一の対象空間が異なる撮像位置から撮像された複数の撮像画像が存在する場合、形状情報推定部13は、同一の対象空間が撮像されていることを利用して、SfM(structure from motion)のアルゴリズムによって、撮像画像の各々の撮像位置間の位置関係の推定を行う。
そして、形状情報推定部13は、撮像画像の各々から求められた部屋構造部及びオブジェクト部の各々のデプスマップを、部屋構造部、オブジェクト部それぞれにおいて統合して、より精度の高い対象空間における部屋構造部、オブジェクト部のデプスマップを生成する。
Further, when there are a plurality of captured images captured from different imaging positions in the same target space, the shape
Then, the shape
図5は、マンハッタンワールド仮説により生成したデプスマップから求めた部屋構造部(天井、壁及び床)の三次元形状を表示した図である。
この図5には、対象空間の部屋の天井200C、壁200W及び床200Fからなる部屋構造部の三次元形状が示されている。
FIG. 5 is a diagram showing the three-dimensional shape of the room structure (ceiling, wall and floor) obtained from the depth map generated by the Manhattan World hypothesis.
FIG. 5 shows the three-dimensional shape of the room structure portion including the
図6は、三次元形状推定方法(1)における機械学習モデルで求めたデプスマップから、セマンティックセグメンテーションにより分割した領域により求めたオブジェクト部のデプスマップから求めた三次元形状を表示した図である。
図6には、対象空間の仮想空間250において、オブジェクト部のデプスマップから求めた柱200P及びテーブル200Tの三次元形状が示されている。
FIG. 6 is a diagram showing a three-dimensional shape obtained from the depth map of the object portion obtained by the region divided by the semantic segmentation from the depth map obtained by the machine learning model in the three-dimensional shape estimation method (1).
FIG. 6 shows the three-dimensional shapes of the
上述したように、形状情報推定部13は、例えば、三次元形状推定方法(1)から三次元形状推定方法(3)などにより、対象空間の三次元形状を推定する。
しかしながら、上述した三次元形状推定方法(1)から三次元形状推定方法(3)の方法は、撮像画像からの三次元復元技術の例として示すものである。形状情報推定部13で用いられる三次元復元技術は、必ずしも特定の手法として限定される訳ではなく、一般的に用いられているいずれの手法を用いてもよい。
As described above, the shape
However, the above-mentioned methods from the three-dimensional shape estimation method (1) to the three-dimensional shape estimation method (3) are shown as an example of the three-dimensional restoration technique from the captured image. The three-dimensional restoration technique used in the shape
また、上述した三次元形状推定方法(1)から三次元形状推定方法(3)により求めたデプスマップが相対的な距離として求められているため、実際の撮像位置からの距離は不明である。以下の手法などにより、デプスマップにおける実際の距離を推定し、復元される対象空間の各オブジェクトのサイズを実寸のサイズとして求める。
例えば、撮像画像記憶部18に記憶されている撮像画像を撮像した際の撮像条件として、撮像装置における特定の画素と対象空間の三次元形状との実寸サイズでの距離が記憶されていれば、この実寸サイズの距離を用いて、デプスマップにおける各画素の距離を求めることができる。
Further, since the depth map obtained by the three-dimensional shape estimation method (1) to the three-dimensional shape estimation method (3) described above is obtained as a relative distance, the distance from the actual imaging position is unknown. The actual distance in the depth map is estimated by the following method, and the size of each object in the restored target space is calculated as the actual size.
For example, if the actual size distance between a specific pixel in the imaging device and the three-dimensional shape of the target space is stored as an imaging condition when the captured image stored in the captured
また、大きさが既知であるオブジェクトを配置して撮像し、撮像されたこの大きさが既知のオブジェクトの画像に基づいて、対象空間におけるオブジェクトの各々をスケーリングしても良い。このとき、既知のオブジェクトをパターン認識やセマンティックセグメンテーション、物体認識などの画像解析により、既知のオブジェクトの画素領域を抽出し、抽出した領域における画素のデプス値を用いて、他の領域のデプスマップを実寸サイズにスケーリングする。
また、画像のぼけ量と撮像装置の焦点距離との対応関係を、予め計測実験により取得しておき、撮像画像のぼけ量から距離を推定する構成を用いてもよい。
Alternatively, an object of known size may be arranged and imaged, and each of the objects in the target space may be scaled based on the image of the captured object of known size. At this time, the pixel area of the known object is extracted by image analysis such as pattern recognition, semantic segmentation, and object recognition of the known object, and the depth map of the other area is obtained by using the pixel depth value in the extracted area. Scale to actual size.
Further, a configuration may be used in which the correspondence between the amount of blurring of the image and the focal length of the imaging device is acquired in advance by a measurement experiment, and the distance is estimated from the amount of blurring of the captured image.
光源情報推定部14は、対象空間の撮像画像と、対象空間の空間形状情報(仮想空間の三次元形状)とから光源情報の推定を行い、推定された光源情報を空間情報記憶部19に対して書き込んで記憶させる。この光源情報は、少なくとも光源の対象空間における位置、光源の放射する光の強度、及び光の色味(分光情報)である。
本実施形態において、光源情報推定部14は、以下に示す3つの光源情報推定方法により、光源情報の生成を行う。
The light source
In the present embodiment, the light source
光源情報推定方法(1):
光源情報推定部14は、撮像画像(RGB画像)をグレースケール画像に変換し、階調度の最も高い画素の領域を抽出する。
そして、光源情報推定部14は、例えば、この階調度の最も高い画素の領域と、当該領域の画素の階調度に対して、所定の比(例えば、90%以上)の階調度を有する画素の領域とを光源の領域として抽出する。
Light source information estimation method (1):
The light source
Then, the light source
図7は、光源情報推定方法(1)により抽出された光源の領域(光源領域)を、光源情報推定部14がグレースケール画像において示す図である。図7において、グレースケール画像300は、RGB画像である撮像画像100(図2(a))をグレースケール化した画像である。
グレースケール画像300の画素において、領域301の画素が最も高い階調度を有している。そして、領域302の画素が、領域301の画素の90%以上の階調度を有している。これにより、光源情報推定部14は、領域301及び領域302の各々を、光源領域として抽出する。
FIG. 7 is a diagram showing a region of the light source (light source region) extracted by the light source information estimation method (1) in a grayscale image by the light source
Among the pixels of the
光源情報推定方法(2):
光源情報推定部14は、上述した光源情報推定方法(1)により、撮像画像において光源領域を抽出する。
そして、光源情報推定部14は、形状情報推定部13により抽出した光源領域の形状情報に基づき、仮想空間である空間形状情報において、光源領域の三次元形状としての点光源を配置する。
また、光源情報推定部14は、撮像画像及び空間形状情報における三次元形状により、対象空間の反射率情報(波長毎の反射率情報)を推定する。
Light source information estimation method (2):
The light source
Then, the light source
Further, the light source
ここで、光源情報推定部14は、対象空間の反射率情報の推定において、例えば、固有画像分解(Intrinsic Image Decomposition) に基づくIntrinsic Image Problemのアルゴリズムの手法(例えば、Qifeng Chen, Vladlen Koltun" A Simple Model for Intrinsic Image Decomposition with Depth Cues" The IEEE International Conference on Computer Vision (ICCV), 2013, pp. 241-248の文献に記載されている手法)を用いている。
光源情報推定部14は、Intrinsic Image Problemのアルゴリズムによって反射率・陰影分離を行う。
すなわち、光源情報推定部14は、撮像画像を反射率成分画像(反射率情報)及び陰影成分画像の各々に分離する際、Intrinsic Image Problemのアルゴリズムに基づき、「画像(撮像画像)Iは反射率成分Rと陰影成分Sの積で表すことができる」という仮定を基とし、撮像画像Iを反射率成分画像Rと陰影成分画像Sとの各々に分離する。
Here, the light source
The light source
That is, when the light source
図8は、光源情報推定部14により求められた空間形状情報における三次元形状の反射率情報を示す反射率成分画像である。
この図8において、反射率成分画像は、撮像画像における2次元座標値で示される2次元座標点で示される各画素の反射率成分(反射率情報)がRGB(Red Green Blue)の画素値として示されている。
一方、陰影成分画像は、撮像画像における2次元座標値で示される各2次元座標点の陰影成分、すなわち撮像画像を撮像した際の光源に依存するデータが画素値として示されている。
FIG. 8 is a reflectance component image showing the reflectance information of the three-dimensional shape in the spatial shape information obtained by the light source
In FIG. 8, in the reflectance component image, the reflectance component (reflectance information) of each pixel indicated by the two-dimensional coordinate points indicated by the two-dimensional coordinate values in the captured image is a pixel value of RGB (Red Green Blue). It is shown.
On the other hand, in the shadow component image, the shadow component of each two-dimensional coordinate point indicated by the two-dimensional coordinate value in the captured image, that is, the data depending on the light source when the captured image is captured is shown as the pixel value.
次に、光源情報推定部14は、撮像画像の各画素の階調度と、空間形状情報における三次元形状の反射率情報とにより、光源の強度の推定を行う。
そして、光源情報推定部14は、撮像画像において任意に光源の強度を求めるための領域Aを設定し、この領域Aの反射率情報を抽出する。
ここで、設定する領域Aは、強度及び色味を求めたい対象の光源の光のみ(あるいは入射する光のほとんどが対象の光源の光のみ)が照射される領域であることが望ましい。
すなわち、複数の光源がある場合、それぞれの光源からの影響を求めるための演算が複雑とならないように、対象の光源の強度及び色味を求めるための演算量を低減する。
Next, the light source
Then, the light source
Here, it is desirable that the region A to be set is a region in which only the light of the target light source for which the intensity and the tint are to be obtained (or most of the incident light is only the light of the target light source) is irradiated.
That is, when there are a plurality of light sources, the amount of calculation for obtaining the intensity and color of the target light source is reduced so that the calculation for obtaining the influence from each light source is not complicated.
次に、光源情報推定部14は、撮像画像において設定した領域Aと、反射率成分画像において領域Aに対応する位置の領域Bを抽出する。
そして、光源情報推定部14は、領域AのRGB階調度と領域Bの反射率情報とにより、光源の強度及び色味を求める。
また、光源情報推定部14は、光源の強度を求める際、光の強度が距離の二乗に反比例することを考慮し、領域Bに入射すると推定された光の強度に対して、空間形状情報における三次元形状から求めた光源と領域Bとの距離の二乗を乗して、光源の強度を求める。
Next, the light source
Then, the light source
Further, when determining the intensity of the light source, the light source
この光源情報推定方法(2)により、光源の強度が撮像画像のRGB値を飽和していても、光源からの光が入射する領域から間接的に光源の強度を求めるため、正確な光源情報を取得することができる。
図9は、光源情報推定部14が推定した光源情報を空間形状情報における三次元形状に配置した例を示している。図9においては、対象空間の三次元形状における推定位置に対応して、光源200L_1、200L_2を対象空間の仮想空間250に配置している。
By this light source information estimation method (2), even if the intensity of the light source saturates the RGB values of the captured image, the intensity of the light source is indirectly obtained from the region where the light from the light source is incident, so that accurate light source information can be obtained. Can be obtained.
FIG. 9 shows an example in which the light source information estimated by the light source
光源情報推定方法(3):
光源情報推定部14は、光源情報推定方法(1)により、撮像画像において光源領域を抽出する。また、光源情報推定部14は、上述した光源情報推定方法(2)と同様に、形状情報推定部13により抽出した光源領域の形状情報に基づき、空間形状情報における仮想空間において、光源領域の三次元形状としての点光源を配置する。
このとき、この点光源の強度と色味とは、仮の任意の数値(仮光源情報)とし、例えば撮像画像の点光源と推定された領域のRGB値を仮の数値として設定する。
Light source information estimation method (3):
The light source
At this time, the intensity and color of the point light source are set to temporary arbitrary numerical values (temporary light source information), and for example, the RGB value of the region estimated to be the point light source of the captured image is set as a temporary numerical value.
次に、光源情報推定部14は、撮像画像の各画素に対応する、空間形状情報における三次元形状の座標点を抽出し、この座標点において光が完全拡散反射するという仮定により、点光源それぞれから光が入射された際の陰影情報を計算する。
そして、光源情報推定部14は、撮像画像の画素値と、陰影成分画像の対応する画素の陰影情報とから、各画素における反射率情報を求める。すなわち、光源情報推定部14は、撮像画像の画素値を、陰影成分画像の対応する画素の陰影情報により除算して、除算結果を反射率情報とする。
Next, the light source
Then, the light source
そして、光源情報推定部14は、自然物の反射率の平均値が20%であるという仮定を用い、反射率情報をスケーリングする。
すなわち、光源情報推定部14は、以下に示す(1)式を用いて、撮像画像の各画素の反射率A(x,y)を求める。ここで、光源情報推定部14は、撮像画像における全ての画素の反射率A(x,y)の平均値が20%となるスケーリング係数αを求める。すなわち、光源情報推定部14は、撮像画像の画素値I(x,y)を陰影成分画像の対応する画素の陰影情報(陰影成分画像の画素値S(x,y))により除算した結果の数値において、反射率A(x,y)の平均値が20%となるように、スケーリング係数αを求める。光源情報推定部14は、スケーリング係数αが求まった際の反射率A(x,y)を、撮像画像のそれぞれの画素の反射率A(x,y)とする。
Then, the light source
That is, the light source
次に、光源情報推定部14は、(1)式で求めた撮像画像における画素の各々の反射率A(x,y)を用いて、以下に示す(2)式により、光源の色味及び強度の光源情報を求める。このとき、光源情報推定部14は、(2)式により求まる画素値I(x,y)が撮像画像の対応する位置の画素値と同様となるように、点光源の強度と色味とを仮の任意の数値から変化させて、最終的に点光源の強度及び色味を求める。
以下の(2)式において、A(x,y)が画素(x,y)の反射率を示し、k(l)が光源lの色みを示し、kα(l)が光源lの光の強度を示し、r(x,y,l)が画素(x,y)から光源lまでの距離を示し、n(x,y,l)が画素(x、y)から光源lへのベクトルを示し、nI(x,y)が画素(x,y)の法線ベクトルを示している。
光源情報推定部14は、撮像画像の各画素の画素値I(x,y)となるように、各光源の光源情報である色みk(l)及び強度kα(l)を、(2)式による数値計算により求める。
Next, the light source
In the following equation (2), A (x, y) indicates the reflectance of the pixel (x, y), k (l) indicates the color of the light source l, and k α (l) indicates the light of the light source l. R (x, y, l) indicates the distance from the pixel (x, y) to the light source l, and n (x, y, l) is the vector from the pixel (x, y) to the light source l. , And n I (x, y) indicates the normal vector of the pixel (x, y).
The light source information estimation unit 14 sets the color k (l) and the intensity k α (l), which are the light source information of each light source, to (2) so as to be the pixel value I (x, y) of each pixel of the captured image. ) Calculated by numerical calculation.
また、光源情報を求めるアルゴリズムは、上述した光源情報推定方法(1)から光源情報推定方法(3)以外を用いてもよい。
上述した光源情報推定方法(1)から光源情報推定方法(3)の各々においては、光源を点光源として説明したが、点光源以外の例えば線光源あるいは面光源でもよい。
例えば、光源情報推定部14は、すでに説明したセマンティックセグメンテーションを用いて、各光源の物体認識結果(撮像画像における光源の形状)を求めておく。そして、光源情報推定部14は、光源の種類として、物体認識結果が電球形状であれば点光源とし、ダウンライト形状であればディレクショナルライト(平行光源)とし、蛍光灯形状であれば線光源とし、窓形状であれば面光源とする。
Further, as the algorithm for obtaining the light source information, a method other than the above-mentioned light source information estimation method (1) to the light source information estimation method (3) may be used.
In each of the above-mentioned light source information estimation method (1) to light source information estimation method (3), the light source has been described as a point light source, but for example, a line light source or a surface light source other than the point light source may be used.
For example, the light source
また、光源情報としては、撮像画像、対象空間の空間形状情報、及び光源情報とにより、CGで生成したCGオブジェクトを合成する仮想空間上の任意の位置におけるIBL(image based lighting)情報を生成することができる。
これにより、画像合成部15は、撮像画像と対象空間の空間形状情報とにより、CGで生成したCGオブジェクトを配置する位置における光源情報をIBL情報から容易に求めることができる。ここで、光源情報推定方法(2)及び光源情報推定方法(3)で求めた光源情報を、画素値が飽和しないIBL情報のデータ形式を用いることができる。
Further, as the light source information, IBL (image based lighting) information at an arbitrary position in the virtual space where the CG object generated by CG is synthesized is generated by the captured image, the spatial shape information of the target space, and the light source information. be able to.
As a result, the
画像合成部15は、光源情報に基づいて、撮像画像、対象空間の空間形状情報及び光源情報とに基づいて、三次元の仮想空間を生成する。
ここで、画像合成部15は、空間形状情報における三次元形状を形状モデルとし、撮像画像をテクスチャデータとし、光源情報をレンダリングパラメータとして、対象空間の仮想空間を生成する。
The
Here, the
図10は、画像合成部により生成された三次元の仮想空間を撮像画像の撮像方向から見た画像を示す図である。この図10は、表示制御部16が仮想空間を所定の視点方向(例えば、撮像方向)から観察された画面として、表示部17の表示画面に表示した図である。
図10においては、撮像画像により生成した三次元の仮想空間を所定の視点から観察した画像として表示させる際、平面や天球に対して撮像画像を撮像装置の画角に応じてテクスチャデータとして設定して(貼り付けて)仮想空間を生成している。あるいは、仮想空間において、観察する視点位置の変更をしても違和感なく(撮像位置に対して所定の範囲内において違和感なく)観察画像を表示させるため、形状モデルにテクスチャデータとして撮像画像を設定すれ(貼り付けれ)ばよい。
FIG. 10 is a diagram showing an image of a three-dimensional virtual space generated by the image synthesizing unit as viewed from the imaging direction of the captured image. FIG. 10 is a diagram in which the
In FIG. 10, when the three-dimensional virtual space generated by the captured image is displayed as an image observed from a predetermined viewpoint, the captured image is set as texture data for a plane or a celestial sphere according to the angle of view of the imaging device. (Paste) to create a virtual space. Alternatively, in the virtual space, in order to display the observed image without discomfort even if the viewpoint position to be observed is changed (without discomfort within a predetermined range with respect to the imaging position), the captured image should be set as texture data in the shape model. (Paste) just do.
図10において、柱200Pの形状モデルには、光源200L_1及び200L_2の各々からの光が照射される明るい明領域200PLと、光が照射されない影領域200PS(シャドウ)とが、形状モデルにテクスチャデータとして撮像画像を貼り付ける(設定する)処理など、撮像画像を用いて形成されている。
同様に、テーブル200Tの形状モデルが配置された位置における、テーブル200Tの下部の床200Fには、光源200L_1及び200L_2の各々からの光がテーブル200Tにより遮蔽されることで生成される影領域200TSが同様に形成されている。
また、床200Fにおいて、光源200L_1及び200L_2からの距離に対応して、明るさの強さの程度を示しているグラデーション領域501も、上述したように撮像画像を用いて形成されている。
In FIG. 10, in the shape model of the
Similarly, at the position where the shape model of the table 200T is arranged, the
Further, on the
また、画像合成部15は、生成した三次元の仮想空間に対して、CGで生成されたCGオブジェクトを追加して配置する制御が行われた場合、当該仮想空間に対してCGオブジェクトの追加配置を行う。
本実施形態において、CGで生成されたCGオブジェクトの各々は、例えば、予め生成されており、合成画像記憶部20に書き込まれて記憶されている。
Further, when the
In the present embodiment, each of the CG objects generated by CG is, for example, generated in advance and is written and stored in the composite
図11は、仮想空間に対してCGオブジェクトの追加の配置を行う制御について説明する図である。この図11は、図10と同様に、表示制御部16が仮想空間を所定の視点方向(例えば、撮像方向)から観察された画面として、表示部17の表示画面に表示した図である。
図11において、CGオブジェクト提示領域503に表示されているCGオブジェクト503_1、503_2などが、画像合成部15により、表示制御部16を介して表示部17の表示画面502に表示される。
FIG. 11 is a diagram illustrating control for additionally arranging CG objects in the virtual space. FIG. 11 is a diagram in which the
In FIG. 11, the CG objects 503_1, 503_2, etc. displayed in the CG
例えば、ユーザがCGオブジェクト提示領域503におけるCGオブジェクト503_1をドラッグし、配置位置504においてドロップすることにより、画像合成部15は、CGオブジェクト503_1を仮想空間における配置位置504に配置する。
For example, when the user drags the CG object 503_1 in the CG
図12は、仮想空間に対してCGオブジェクトの追加の配置を行う制御について説明する図である。この図12は、図10と同様に、表示制御部16が仮想空間を所定の視点方向(例えば、撮像方向)から観察された画面として、表示部17の表示画面に表示した図である。
図12において、仮想空間に配置されたCGオブジェクト503_1に対応し、このCGオブジェクト503_1の形状情報に対して、光源200L_1及び200L_2の各々の光源情報を反映させて、仮想空間が再構成される。
FIG. 12 is a diagram illustrating control for additionally arranging CG objects in the virtual space. FIG. 12 is a diagram in which the
In FIG. 12, the virtual space is reconstructed by reflecting the light source information of each of the light sources 200L_1 and 200L_1 with respect to the shape information of the CG object 503_1 corresponding to the CG object 503_1 arranged in the virtual space.
画像合成部15は、配置したCGオブジェクト503_1の形状情報と、光源200L_1及び200L_2の光源情報(配置位置、光の色味及び強度)とに対応し、光源200L_1及び200L_2からの照射光による明度を反映させたレンダリングを、CGオブジェクト503_1に対して行う。
これにより、画像合成部15は、レイトレーシングなどの技法により、図12に示すように、配置したCGオブジェクト503_1の形状情報に対応し、光源200L_1及び200L_2からの光が照射される上部の明るさの強度を強くし、CGオブジェクト503_1の三次元形状により遮蔽された領域を求め影とし、影となる影領域503_1Sの明るさの強度を低くする。
The
As a result, the
また、画像合成部15は、光源情報推定部14が求めた仮想空間における天井200C、壁200W、床200F、柱200P及びテーブル200Tなどの反射率情報及び三次元形状を用いて、照射光の反射成分による明度をレンダリングに反映させてもよい。
すなわち、画像合成部15は、仮想空間における三次元形状と、光源200L_1及び200L_2の光源情報(配置位置、光の色味及び強度)とに対応し、光源200L_1及び200L_2からの照射光の反射光による、仮想空間に配置されたCGオブジェクトに対する明度の影響を、仮想空間のレンダリングに対して反映させる構成としてもよい。
Further, the
That is, the
図13は、本実施形態による画像処理システムにおいて、対象空間の選択された撮像画像から生成した仮想空間と、CGオブジェクトとを合成する処理の動作例を示すフローチャートである。以下の説明において、データ入出力部11は、予め外部装置から供給される、対象空間の各々が撮像された単一あるいは複数の撮像画像を撮像画像記憶部18に対して、撮像画像識別情報を付与して、撮像画像のそれぞれを撮像した際の撮像条件とともに書き込んで記憶させている。
FIG. 13 is a flowchart showing an operation example of the process of synthesizing the virtual space generated from the selected captured image of the target space and the CG object in the image processing system according to the present embodiment. In the following description, the data input /
ステップS1:
データ入出力部11は、表示制御部16により表示部17に対して、撮像画像記憶部18に記憶されている撮像画像の表示を行う。
ユーザは、表示部17に表示されている撮像画像の中から、観察対象とする対象空間の撮像画像をマウスによりクリックなどすることにより選択する。
これにより、データ入出力部11は、撮像条件取得部12、形状情報推定部13、光源情報推定部14及び画像合成部15の各々に対して、ユーザが選択した撮像画像の撮像画像識別情報を出力する。
Step S1:
The data input /
The user selects from the captured images displayed on the
As a result, the data input /
ステップS2:
撮像条件取得部12は、ユーザが選択した撮像画像の撮像条件を、当該撮像画像の撮像画像識別情報により撮像画像記憶部18から読み出す。
そして、撮像条件取得部12は、読み出した撮像条件を、形状情報推定部13及び光源情報推定部14の各々に対して出力する。
Step S2:
The imaging
Then, the imaging
ステップS3:
形状情報推定部13は、撮像画像及び撮像条件の各々を用いて、すでに説明した三次元形状推定方法(1)から三次元形状推定方法(3)などの手法により、選択された撮像画像の対象空間の三次元形状を推定する。
そして、形状情報推定部13は、生成した対象空間の三次元形状のデータを空間形状情報として、対応する撮像画像の撮像画像識別情報を付加して、空間情報記憶部19に対して書き込んで記憶させる。
Step S3:
The shape
Then, the shape
ステップS4:
光源情報推定部14は、空間情報記憶部19から撮像画像識別情報に対応した空間形状情報を読み出す。
そして、光源情報推定部14は、撮像画像及び空間形状情報の各々を用いて、すでに説明した光源情報推定方法(1)から光源情報推定方法(3)などのいずれかの手法により、選択された撮像画像に対応した仮想空間における光源情報の推定を行う。光源情報推定部14は、推定した光源情報を、空間形状情報に対応させて空間情報記憶部19に対して書き込んで記憶させる。
Step S4:
The light source
Then, the light source
ステップS5:
画像合成部15は、空間情報記憶部19から撮像画像識別情報に対応した空間形状情報及び光源情報の各々を、また撮像画像記憶部18から撮像画像識別情報に対応した撮像画像を読み出す。
画像合成部15は、空間形状情報における三次元形状に対して、光源情報及び撮像画像とを用いて、撮像画像に撮像された対象空間に対応する仮想空間を生成する。
そして、表示制御部16は、上記仮想空間における視点の位置から観察される観察画像を生成し、図10に示すように表示部17の表示画面に表示する。
Step S5:
The
The
Then, the
ステップS6:
例えば、ユーザが、表示部17の表示画面に表示されている観察画像に対応する仮想空間に対して、CGオブジェクトの追加(または変更)の配置を行う制御を画像処理システム10に対して行う。
これにより、画像合成部15は、合成画像記憶部20に予め記憶されているCGオブジェクトの画像のデータを読み込む。
Step S6:
For example, the user controls the
As a result, the
そして、画像合成部15は、図11に示すように、読み出したCGオブジェクトの画像を、表示部17の表示画面におけるCGオブジェクト提示領域503に対して表示する。
ユーザがCGオブジェクト提示領域503におけるCGオブジェクト503_1を選択してドラッグし、仮想空間における床200Fにおける配置位置504にドロップし、仮想空間に対するCGオブジェクト503_1を追加する配置を行う。
Then, as shown in FIG. 11, the
The user selects and drags the CG object 503_1 in the CG
ステップS7:
画像合成部15は、仮想空間における配置位置504に対して、CGオブジェクト503_1を新たに配置する合成処理を行う。
そして、画像合成部15は、仮想空間の三次元形状と、CGオブジェクト503_1の三次元形状と、光源200L_1、200L_2の光源情報とに基づき、新たにレンダリングを行うことにより仮想空間の再構成を行う。
Step S7:
The
Then, the
ここで、画像合成部15は、対応する撮像画像の撮像画像識別情報に対応させて、再構成した仮想空間の三次元形状のデータを、合成画像記憶部20に対して書き込んで記憶させる。
表示制御部16は、再構成された仮想空間における視点の位置から観察される観察画像を生成し、図12に示すように表示部17の表示画面に表示する。
Here, the
The
ステップS8:
データ入出力部11は、CGオブジェクトの配置(追加及び変更を含む)を続けて行うか否かを入力する入力表示領域(不図示)を表示部17の表示画面に表示する。
そして、ユーザが、CGオブジェクトの配置を続ける情報を上記入力表示領域に対して入力した場合、データ入出力部11は処理をステップS6へ進める。
一方、ユーザが、CGオブジェクトの配置を終了する情報を入力表示領域に入力した場合、データ入出力部11は処理を終了する。
Step S8:
The data input /
Then, when the user inputs the information for continuing the arrangement of the CG object to the input display area, the data input /
On the other hand, when the user inputs the information for terminating the arrangement of the CG object into the input display area, the data input /
上述したように、本実施形態によれば、上述した光源情報推定方法(1)から光源情報推定方法(3)により、撮像画像及び仮想空間の三次元形状に基づいて光源情報を取得することが可能であるため、従来のように形状が既知の物体を準備し、かつこの物体の画像を既知光源下で撮像して基準画像を準備する必要がなく、簡易に対象空間における光源の光源情報を得ることができる。 As described above, according to the present embodiment, it is possible to acquire the light source information based on the captured image and the three-dimensional shape of the virtual space by the light source information estimation method (3) from the light source information estimation method (1) described above. Since it is possible, it is not necessary to prepare an object having a known shape as in the past and to prepare a reference image by capturing an image of this object under a known light source, and simply obtain light source information of the light source in the target space. Obtainable.
また、本実施形態によれば、画像合成部15が対象空間の三次元形状と、対象空間における光源情報と、CGオブジェクトの三次元形状とにより、新たにCGオブジェクトが配置された仮想空間のレンダリングを行うため、CGオブジェクトに対する光源の放射光の影響、CGオブジェクトの三次元形状により遮蔽されて隠れる領域、及びCGオブジェクトの三次元形状により光源からの放射光が遮蔽される影の領域を反映させて、仮想空間と当該仮想空間に追加配置されたCGオブジェクトとを合成した仮想空間(再構成した仮想空間)をレンダリングすることにより、現実の対象空間における光源環境と同様の光源環境において、当該対象空間に対して物体(CGオブジェクトに対応した物体)を配置した状態を仮想的に生成して、物体を配置した対象空間の見えを観察画像として容易に観察することができる。
Further, according to the present embodiment, the
また、本実施形態によれば、仮想空間の構造部及びオブジェクト部の各々の三次元形状の反射率情報及びCGオブジェクトの各々の反射率情報を用いて、光源からの放射光の三次元形状の反射(二次反射)をレンダリングに反映させることで、仮想空間における見えを現実の対象空間により近似させることができる。 Further, according to the present embodiment, the reflectance information of each of the three-dimensional shapes of the structural part and the object part of the virtual space and the reflectance information of each of the CG objects are used to form the three-dimensional shape of the light emitted from the light source. By reflecting the reflection (secondary reflection) in the rendering, the appearance in the virtual space can be approximated to the actual target space.
また、本実施形態によれば、仮想空間及びCGオブジェクトの各々の三次元情報を実寸サイズにスケーリングすることにより、CGオブジェクトを配置した仮想空間の見えを、対象空間に物体を配置した場合の正確なサイズ感覚の質感を有する観察画像として視認することができる。 Further, according to the present embodiment, by scaling the three-dimensional information of each of the virtual space and the CG object to the actual size, the appearance of the virtual space in which the CG object is arranged is accurate when the object is arranged in the target space. It can be visually recognized as an observation image having a texture with a sense of size.
また、本実施形態によれば、単一の撮像画像あるいは複数の撮像画像を用いて対象空間の三次元形状を推定して仮想空間を生成しているため、所定の範囲における対象空間を観察する視点を任意に変化させることが可能であり、仮想空間におけるCGオブジェクトを配置した領域の見えを、視点を変化させた観察画像として観察することができる。 Further, according to the present embodiment, since the virtual space is generated by estimating the three-dimensional shape of the target space using a single captured image or a plurality of captured images, the target space in a predetermined range is observed. The viewpoint can be changed arbitrarily, and the appearance of the area where the CG object is arranged in the virtual space can be observed as an observation image in which the viewpoint is changed.
また、上述した実施形態においては、予め撮像されて撮像画像記憶部18に書き込まれている撮像画像を用いた、仮想空間の生成及びこの仮想空間に対するCGオブジェクトの合成を行う画像処理について説明した。
しかしながら、データ入出力部11から、撮像装置から供給される対象空間を逐次的に撮像した撮像画像(単一または複数の撮像画像)をリアルタイムに撮像画像記憶部18に書き込む構成としてもよい。この場合、逐次的に供給される単一または複数の撮像画像により仮想空間を生成し、この仮想空間に対してCGオブジェクトを合成する処理を行い、合成処理を行った仮想空間の観察画像を、リアルタイムに表示部17に表示してユーザに視認させることができる。
Further, in the above-described embodiment, image processing for generating a virtual space and synthesizing a CG object with respect to the virtual space using the captured image captured in advance and written in the captured
However, the data input /
以上、本発明の実施形態を図面を参照し説明してきたが、具体的な構成はこの形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計なども含まれる。 Although the embodiments of the present invention have been described above with reference to the drawings, the specific configuration is not limited to this mode, and includes designs within a range that does not deviate from the gist of the present invention.
なお、本発明における図1の画像処理システム10の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより撮像画像から生成した仮想空間に対してCGオブジェクトを合成する処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
A program for realizing the function of the
また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。 Further, the "computer system" shall also include a WWW system provided with a homepage providing environment (or display environment). Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, or a storage device such as a hard disk built in a computer system. Furthermore, a "computer-readable recording medium" is a volatile memory (RAM) inside a computer system that serves as a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, it shall include those that hold the program for a certain period of time.
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 Further, the program may be transmitted from a computer system in which this program is stored in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the "transmission medium" for transmitting a program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the above program may be for realizing a part of the above-mentioned functions. Further, a so-called difference file (difference program) may be used, which can realize the above-mentioned functions in combination with a program already recorded in the computer system.
10…画像処理システム
11…データ入出力部
12…撮像条件取得部
13…形状情報推定部
14…光源情報推定部
15…画像合成部
16…表示制御部
17…表示部
18…撮像画像記憶部
19…空間情報記憶部
20…合成画像記憶部
10 ...
Claims (11)
前記撮像画像及び前記空間形状情報から、前記対象空間における光源の少なくとも位置及び強度を含む光源情報を推定する光源情報推定部と
を備える画像処理システム。 A shape information estimation unit that estimates spatial shape information including at least a three-dimensional shape of the target space from a single or a plurality of captured images in which the target space is captured.
An image processing system including a light source information estimation unit that estimates light source information including at least the position and intensity of a light source in the target space from the captured image and the space shape information.
前記撮像画像及び前記空間形状情報から、前記対象空間における三次元形状の反射率情報を推定し、当該反射率情報を用いて前記光源情報を推定する
ことを特徴とする請求項1に記載の画像処理システム。 The light source information estimation unit
The image according to claim 1, wherein the reflectance information of the three-dimensional shape in the target space is estimated from the captured image and the spatial shape information, and the light source information is estimated using the reflectance information. Processing system.
前記撮像画像の画素値と、前記反射率情報、前記光源情報及び前記空間形状情報の各々との関係を示す所定の式から、前記推定した前記反射率情報を用いて前記光源情報を推定する
ことを特徴とする請求項2に記載の画像処理システム。 The light source information estimation unit uses the reflectance information estimated from a predetermined formula showing the relationship between the pixel value of the captured image and each of the reflectance information, the light source information, and the spatial shape information. The image processing system according to claim 2, wherein the light source information is estimated.
をさらに備えることを特徴とする請求項1から請求項3のいずれか一項に記載の画像処理システム。 An image compositing unit that generates a composite image of a virtual space in which a shape model of a predetermined object is arranged at a predetermined position of the captured image from the captured image, the spatial shape information, and the light source information is further provided. The image processing system according to any one of claims 1 to 3, wherein the image processing system is characterized.
をさらに備えることを特徴とする請求項1から請求項4のいずれか一項に記載の画像処理システム。 From the captured image, the spatial shape information, and the light source information, a shape model of the predetermined object is arranged at a predetermined position of the captured image, and the influence of arranging the shape model is reflected in the virtual space. The image processing system according to any one of claims 1 to 4, further comprising an image compositing unit for generating an observation image.
前記三次元形状の反射率情報と前記空間形状情報と前記光源情報から、IBL(image based lighting)情報を生成する
ことを特徴とする請求項1から請求項5のいずれか一項に記載の画像処理システム。 The light source information estimation unit
The image according to any one of claims 1 to 5, wherein IBL (image based lighting) information is generated from the reflectance information of the three-dimensional shape, the spatial shape information, and the light source information. Processing system.
前記対象空間における構造部とオブジェクト部との三次元形状の各々を別々に推定し、前記構造部、前記オブジェクト部それぞれの三次元形状を合成して、前記対象空間全体の三次元形状モデルを生成する
ことを特徴とする請求項1から請求項6のいずれか一項に記載の画像処理システム。 The shape information estimation unit
Each of the three-dimensional shapes of the structural part and the object part in the target space is estimated separately, and the three-dimensional shapes of the structural part and the object part are combined to generate a three-dimensional shape model of the entire target space. The image processing system according to any one of claims 1 to 6, wherein the image processing system is characterized by the above.
前記対象空間の三次元形状と、当該対象空間における物体認識情報を含む前記光源の形状情報を推定する
ことを特徴とする請求項1から請求項7のいずれか一項に記載の画像処理システム。 The shape information estimation unit
The image processing system according to any one of claims 1 to 7, wherein the three-dimensional shape of the target space and the shape information of the light source including the object recognition information in the target space are estimated.
をさらに備える
ことを特徴とする請求項1から請求項8のいずれか一項に記載の画像処理システム。 The image processing system according to any one of claims 1 to 8, further comprising an imaging condition acquisition unit that acquires an imaging condition when the captured image is captured.
光源情報推定部が、前記撮像画像及び前記空間形状情報から、前記対象空間における光源の少なくとも位置及び強度を含む光源情報を推定する光源情報推定過程と
を含むことを特徴とする画像処理方法。 A shape information estimation process in which the shape information estimation unit estimates spatial shape information including at least a three-dimensional shape of the target space from a single or a plurality of captured images in which the target space is captured.
An image processing method comprising a light source information estimation process in which a light source information estimation unit estimates light source information including at least the position and intensity of a light source in the target space from the captured image and the space shape information.
対象空間が撮像された単一あるいは複数の撮像画像から、前記対象空間の少なくとも三次元形状を含む空間形状情報を推定する形状情報推定手段、
前記撮像画像及び前記空間形状情報から、前記対象空間における光源の少なくとも位置及び強度を含む光源情報を推定する光源情報推定手段
として機能させるプログラム。 Computer,
A shape information estimation means that estimates spatial shape information including at least a three-dimensional shape of the target space from a single or a plurality of captured images in which the target space is captured.
A program that functions as a light source information estimation means that estimates light source information including at least the position and intensity of a light source in the target space from the captured image and the space shape information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019194285A JP7476511B2 (en) | 2019-10-25 | 2019-10-25 | Image processing system, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019194285A JP7476511B2 (en) | 2019-10-25 | 2019-10-25 | Image processing system, image processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021068272A true JP2021068272A (en) | 2021-04-30 |
JP7476511B2 JP7476511B2 (en) | 2024-05-01 |
Family
ID=75637320
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019194285A Active JP7476511B2 (en) | 2019-10-25 | 2019-10-25 | Image processing system, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7476511B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022133378A (en) * | 2021-07-21 | 2022-09-13 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Face biological detection method, device, electronic apparatus, and storage medium |
CN116245931A (en) * | 2023-03-16 | 2023-06-09 | 如你所视(北京)科技有限公司 | Method, device, equipment, medium and product for determining object attribute parameters |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015099545A (en) * | 2013-11-20 | 2015-05-28 | 株式会社東芝 | Image generation system and image generation program |
WO2017203709A1 (en) * | 2016-05-27 | 2017-11-30 | 楽天株式会社 | Three-dimensional model generation system, three-dimensional model generation method, and program |
-
2019
- 2019-10-25 JP JP2019194285A patent/JP7476511B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015099545A (en) * | 2013-11-20 | 2015-05-28 | 株式会社東芝 | Image generation system and image generation program |
WO2017203709A1 (en) * | 2016-05-27 | 2017-11-30 | 楽天株式会社 | Three-dimensional model generation system, three-dimensional model generation method, and program |
Non-Patent Citations (2)
Title |
---|
佐藤洋一 他1名: "インバースレンダリング", 電子情報通信学会技術研究報告, vol. 104, no. 290, JPN6023045923, 3 September 2004 (2004-09-03), JP, pages 65 - 76, ISSN: 0005190123 * |
肥後智昭 他2名: "物体の全体形状と反射パラメータの同時推定", 画像ラボ, vol. 18, no. 11, JPN6023045922, 1 November 2007 (2007-11-01), JP, pages 31 - 36, ISSN: 0005190122 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022133378A (en) * | 2021-07-21 | 2022-09-13 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Face biological detection method, device, electronic apparatus, and storage medium |
CN116245931A (en) * | 2023-03-16 | 2023-06-09 | 如你所视(北京)科技有限公司 | Method, device, equipment, medium and product for determining object attribute parameters |
CN116245931B (en) * | 2023-03-16 | 2024-04-19 | 如你所视(北京)科技有限公司 | Method, device, equipment, medium and product for determining object attribute parameters |
Also Published As
Publication number | Publication date |
---|---|
JP7476511B2 (en) | 2024-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11182974B2 (en) | Method and system for representing a virtual object in a view of a real environment | |
Alexander et al. | The digital emily project: Achieving a photorealistic digital actor | |
US10893262B2 (en) | Lightfield rendering based on depths from physically-based volume rendering | |
JP4865093B2 (en) | Method and system for animating facial features and method and system for facial expression transformation | |
JP4932951B2 (en) | Facial image processing method and system | |
US10440352B2 (en) | Image processing apparatus and method | |
RU2586566C1 (en) | Method of displaying object | |
US10085008B2 (en) | Image processing apparatus and method | |
US20160150217A1 (en) | Systems and methods for 3d capturing of objects and motion sequences using multiple range and rgb cameras | |
JP2013235537A (en) | Image creation device, image creation program and recording medium | |
EP2933781A2 (en) | Method and system for representing a virtual object in a view of a real environment | |
JPWO2020075252A1 (en) | Information processing equipment, programs and information processing methods | |
Günther et al. | Aughanded virtuality-the hands in the virtual environment | |
JP2021068272A (en) | Image processing system, image processing method and program | |
JP2022077148A (en) | Image processing method, program, and image processing system | |
CN111742352A (en) | 3D object modeling method and related device and computer program product | |
JP6679966B2 (en) | Three-dimensional virtual space presentation system, three-dimensional virtual space presentation method and program | |
JP7447429B2 (en) | Image processing system, image processing method and program | |
JP2023153534A (en) | Image processing apparatus, image processing method, and program | |
Kim et al. | Planar Abstraction and Inverse Rendering of 3D Indoor Environments | |
JP7419908B2 (en) | Image processing system, image processing method, and program | |
JP2949073B2 (en) | 3D object modeling device | |
US11380048B2 (en) | Method and system for determining a spectral representation of a color | |
JP2013152683A (en) | Image processing apparatus, image processing method and program | |
Monteoliva et al. | Improving Radiance simulation workflow with process of anti-aliasing and tone-mapping to enhance users’ experience in VR environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220921 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7476511 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |