JP6348623B2 - 3D model creation method, 3D model creation device, 3D model creation system, and 3D model creation program - Google Patents
3D model creation method, 3D model creation device, 3D model creation system, and 3D model creation program Download PDFInfo
- Publication number
- JP6348623B2 JP6348623B2 JP2017028809A JP2017028809A JP6348623B2 JP 6348623 B2 JP6348623 B2 JP 6348623B2 JP 2017028809 A JP2017028809 A JP 2017028809A JP 2017028809 A JP2017028809 A JP 2017028809A JP 6348623 B2 JP6348623 B2 JP 6348623B2
- Authority
- JP
- Japan
- Prior art keywords
- polygon
- dimensional
- model
- data
- distance image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 51
- 230000033001 locomotion Effects 0.000 claims description 44
- 238000003384 imaging method Methods 0.000 claims description 39
- 210000000988 bone and bone Anatomy 0.000 claims description 34
- 230000009467 reduction Effects 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 9
- 238000012217 deletion Methods 0.000 claims description 8
- 230000037430 deletion Effects 0.000 claims description 8
- 238000009826 distribution Methods 0.000 claims description 8
- 239000013598 vector Substances 0.000 claims description 7
- 230000003068 static effect Effects 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 description 22
- 230000009466 transformation Effects 0.000 description 22
- 239000003550 marker Substances 0.000 description 16
- 238000012545 processing Methods 0.000 description 16
- 238000003860 storage Methods 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005429 filling process Methods 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Description
本発明は、コンピュータを用いて人間の全身を表現する三次元ポリゴンモデルを作成する技術、及び、該三次元ポリゴンモデルに骨格データ及び動作データを重畳して所望の動きを付与することができる三次元モデルを作成する技術に関する。 The present invention relates to a technique for creating a three-dimensional polygon model that represents a whole human body using a computer, and a tertiary that can superimpose skeleton data and motion data on the three-dimensional polygon model to give a desired motion. The present invention relates to a technique for creating original models.
近年、ゲームや広告において、ディスプレイ上にコンピュータを用いて作成された三次元ポリゴンモデルで表現された人物を表示したり、該三次元ポリゴンモデルに動きを付与した動画を表示したりする技術が広く用いられている(例えば特許文献1)。 In recent years, in games and advertisements, a technique for displaying a person represented by a three-dimensional polygon model created using a computer on a display or displaying a moving image with a motion added to the three-dimensional polygon model has been widely used. It is used (for example, patent document 1).
三次元ポリゴンモデルは次のような手順で作成される。
まず、予め決められた位置に配置された距離画像センサを用いて、被写体の二次元画像データである撮像データと、該距離画像センサから前記被写体までの距離の二次元分布を表す深度マップを取得する。そして、撮像データの各画素位置に対応する平面座標と、深度マップの各点における距離情報から、それぞれが空間座標を持つ多数の点を生成することができる。このとき、深度マップにおいて背景(壁等)に相当する距離の点は除外され、被写体の輪郭を構成する点が抽出される。続いて、ドロネー三角形分割法(非特許文献1参照)等の手法により、これらの点群のうちの近接3点を結んでなる三角形が順次生成されポリゴンが作成される。
The three-dimensional polygon model is created by the following procedure.
First, using a distance image sensor arranged at a predetermined position, image data that is two-dimensional image data of a subject and a depth map representing a two-dimensional distribution of the distance from the distance image sensor to the subject are acquired. To do. Then, a large number of points each having a spatial coordinate can be generated from the plane coordinates corresponding to each pixel position of the imaging data and the distance information at each point of the depth map. At this time, points of distance corresponding to the background (wall or the like) in the depth map are excluded, and points constituting the contour of the subject are extracted. Subsequently, a triangle formed by connecting three adjacent points out of these point groups is sequentially generated by a technique such as Delaunay triangulation (see Non-Patent Document 1) to create a polygon.
上記の方法では、距離画像センサが予め決められた1箇所のみに配置されるため、特定の1方向(該1箇所から被写体を見た方向)から見える三次元ポリゴンモデルしか作成することができない。任意の視点から見ることができる三次元ポリゴンモデルを作成する場合には、複数の方向から見た被写体の撮像データと深度マップを取得し、それぞれの方向で形成された三次元ポリゴンモデルを1つに統合する必要がある。以下、本明細書では、1方向から見た情報のみから作成された三次元ポリゴンモデルを部分三次元ポリゴンモデル、該部分三次元ポリゴンモデルを統合した三次元ポリゴンモデルを全体三次元ポリゴンモデル、とも呼ぶ。 In the above method, since the distance image sensor is arranged at only one predetermined position, it is possible to create only a three-dimensional polygon model that can be seen from one specific direction (the direction from which the subject is viewed). When creating a 3D polygon model that can be viewed from an arbitrary viewpoint, the imaging data and depth map of the subject viewed from multiple directions are acquired, and one 3D polygon model formed in each direction is obtained. Need to be integrated into. Hereinafter, in this specification, a 3D polygon model created only from information viewed from one direction is a partial 3D polygon model, and a 3D polygon model obtained by integrating the partial 3D polygon model is an overall 3D polygon model. Call.
従来、複数の部分三次元ポリゴンモデルを1つの全体三次元ポリゴンモデルに統合する作業は、オペレータが画面を見ながら各部分三次元ポリゴンモデルを回転したり移動したりして該部分三次元ポリゴンモデルの結合位置を決め、さらに各部分三次元ポリゴンモデルの端部のデータを組み合わせることにより、手動で行っていた。また、このようにして部分三次元ポリゴンモデルを統合しても、その連結部が完全には一致しないことが多く、各部分三次元ポリゴンモデルの結合部分におけるズレを修正する作業も、オペレータが手動で行っていた。 Conventionally, the operation of integrating a plurality of partial 3D polygon models into one overall 3D polygon model is performed by rotating or moving each partial 3D polygon model while an operator looks at the screen. This is done manually by deciding the coupling position and combining the data of the end of each partial 3D polygon model. In addition, even if partial 3D polygon models are integrated in this way, their connected parts often do not completely match, and the operator manually corrects the misalignment at the joint of each partial 3D polygon model. I went there.
また、距離画像センサにより得られる深度マップの距離情報には多少の誤差が含まれる。距離情報の誤差を含んだ点は被写体の輪郭から離れて位置し、こうした点が複数集まると被写体のポリゴンから離間し独立した別の小さなポリゴン集合体が構成される。このように被写体のポリゴンから独立に構成されたポリゴンを削除する作業も、オペレータが手動で行っていた。
このように、従来、被写体の全体三次元ポリゴンモデルを作成するのにオペレータが煩雑な作業を行わなければならず、時間と手間がかかるという問題があった。
In addition, the depth information obtained by the distance image sensor includes some errors. The points including the error in the distance information are located away from the contour of the subject, and when a plurality of such points are collected, another small polygon aggregate that is separated from the subject polygon is formed. In this manner, the operator manually deletes the polygon that is configured independently from the polygon of the subject.
As described above, conventionally, there has been a problem that it takes time and labor for the operator to perform complicated work to create the entire three-dimensional polygon model of the subject.
本発明が解決しようとする課題は、任意の方向から見ることができる被写体の三次元モデルを簡便に作成する技術を提供することである。 The problem to be solved by the present invention is to provide a technique for easily creating a three-dimensional model of a subject that can be viewed from an arbitrary direction.
上記課題を解決するために成された本発明に係る三次元モデルの作成方法は、
a) 被写体を取り囲むように配置した4台以上の距離画像センサのそれぞれにより、被写体の二次元画像データである撮像データと、当該距離画像センサから前記被写体までの距離の二次元分布を表す深度データを取得する工程と、
b) 前記4台以上の距離画像センサのそれぞれについて、前記撮像データと前記深度データから複数の点の空間座標を生成する工程と、
c) 前記4台以上の距離画像センサのそれぞれについて、それぞれが前記複数の点のうち同一平面上に位置する所定個数の点を結ぶことにより作成される、複数のポリゴンの組み合わせからなる部分三次元ポリゴンモデルを作成する工程と、
d) 各部分三次元ポリゴンモデルを構成する複数の点の空間座標を、対応する距離画像センサと前記被写体の位置関係に基づき予め求められた座標変換によって1つの共通空間座標系に対応する空間座標に変換し、複数の前記部分三次元ポリゴンモデルを1つに統合した全体三次元ポリゴンモデルを作成する工程と、
e) 前記全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除する工程と
を含むことを特徴とする。
A method for creating a three-dimensional model according to the present invention made to solve the above problems is as follows.
a) Image data that is two-dimensional image data of a subject and depth data representing a two-dimensional distribution of the distance from the distance image sensor to the subject by each of four or more distance image sensors arranged so as to surround the subject. A process of obtaining
b) generating spatial coordinates of a plurality of points from the imaging data and the depth data for each of the four or more range image sensors;
c) A partial three-dimensional combination of a plurality of polygons created by connecting a predetermined number of points located on the same plane among the plurality of points for each of the four or more distance image sensors. Creating a polygon model;
d) Spatial coordinates corresponding to one common spatial coordinate system obtained by converting the spatial coordinates of a plurality of points constituting each partial three-dimensional polygon model based on the positional relationship between the corresponding distance image sensor and the subject. Converting the plurality of partial three-dimensional polygon models into one and creating a whole three-dimensional polygon model;
e) deleting the polygon aggregate formed by connecting a predetermined number or less of polygons in the entire three-dimensional polygon model.
前記ポリゴンは、典型的には1つの面を規定するために必要な最小数である3個の点を結んでなる三角形であるが、4個の点を結んでなる四角形あるいはそれ以上の点を結んでなるポリゴンであってもよい。また、複数の点から部分三次元ポリゴンモデルを作成する方法には、例えば非特許文献1に記載のドロネー三角形分割法を用いることができる。
The polygon is typically a triangle formed by connecting three points, which is the minimum number required to define one surface, but a quadrangle formed by connecting four points or more points. It may be a polygon formed by connecting. As a method for creating a partial three-dimensional polygon model from a plurality of points, for example, the Delaunay triangulation method described in Non-Patent
本発明に係る三次元モデル作成方法では、被写体を取り囲むように4台以上の距離画像センサを配置する。そして、それぞれの距離画像センサにより撮像データと深度データの組を取得し、その各組から取得した複数の点を結んだポリゴンを複数組み合わせて部分三次元ポリゴンモデルを作成する。そして、座標変換により部分三次元ポリゴンモデルを1つの共通空間座標系に対応した変換部分三次元ポリゴンモデルに変換し、それらを組み合わせて全体三次元ポリゴンモデルに統合する。つまり、従来のようにオペレータが部分三次元ポリゴンモデルを回転・移動したり端部のデータを組み合わせたりする必要がなく、簡便に全体三次元ポリゴンモデルからなる三次元モデルを作成することができる。 In the three-dimensional model creation method according to the present invention, four or more distance image sensors are arranged so as to surround the subject. Then, a set of imaging data and depth data is acquired by each distance image sensor, and a partial three-dimensional polygon model is created by combining a plurality of polygons connecting a plurality of points acquired from each set. Then, the partial 3D polygon model is converted into a converted partial 3D polygon model corresponding to one common space coordinate system by coordinate conversion, and these are combined and integrated into the entire 3D polygon model. That is, it is not necessary for the operator to rotate and move the partial 3D polygon model or to combine the end portion data as in the prior art, and a 3D model composed of the entire 3D polygon model can be created easily.
また、本発明に係る三次元モデル作成方法では、全体三次元ポリゴンモデルから、所定数以下のポリゴンが連なって構成されたポリゴン集合体を機械的に削除する。深度マップにおける距離情報の誤差を含んだ複数の点で構成されるポリゴン集合体は、被写体を構成する多数のポリゴンから離間して位置し、また構成するポリゴンの数も少ない。本発明に係る三次元モデル作成方法では、こうしたポリゴン集合体を、その構成数に基づいて機械的に削除するため、従来のようにオペレータが距離情報の誤差を含む点からなるポリゴンを個別に確認して手作業で削除する必要がなく、簡便に全体三次元ポリゴンモデルからなる三次元モデルを作成することができる。 Further, in the three-dimensional model creation method according to the present invention, a polygon aggregate composed of a predetermined number or less of polygons is mechanically deleted from the entire three-dimensional polygon model. A polygon aggregate composed of a plurality of points including errors in distance information in the depth map is located away from a large number of polygons constituting the subject, and the number of polygons configured is small. In the 3D model creation method according to the present invention, such polygon aggregates are mechanically deleted based on the number of components, so that the operator individually confirms polygons including points including errors in distance information as in the past. Thus, it is not necessary to delete manually, and a 3D model composed of the entire 3D polygon model can be easily created.
また、本発明に係る三次元モデルの作成方法では、さらに、
f) 前記部分三次元ポリゴンモデルのそれぞれにおいて、前記複数のポリゴンのうち、前記距離画像センサから該ポリゴンの中心点に向かう視線ベクトルと、当該ポリゴンの法線ベクトルがなす角が90度以下であるポリゴンを削除する工程
を含むことが好ましい。
In the method of creating a three-dimensional model according to the present invention,
f) In each of the partial three-dimensional polygon models, the angle formed by the line-of-sight vector from the distance image sensor to the center point of the polygon and the normal vector of the polygon among the plurality of polygons is 90 degrees or less. Preferably, the method includes a step of deleting polygons.
市販されている距離画像センサの中には、該距離画像センサの視野に直接捉えられる点だけでなく、被写体の裏側に位置する点を推定して自動的に推定点を付加する機能を有するものがある。しかし、このようにして付加された推定点の精度は必ずしも高くない。また、本発明に係る三次元モデルの作成方法では、被写体を取り囲むように配置した4台以上の距離画像センサにより被写体の点を得ることができるため、距離画像センサにより自動的に付加される推定点は不要である。上記態様の方法では、推定点を含んで構成されるポリゴンの法線と距離画像センサから該ポリゴンの中心点に向かう視線ベクトルがなす角は90度以下になることを利用して当該ポリゴンを削除し、部分三次元ポリゴンの精度を高めることができる。 Some commercially available range image sensors have a function to estimate not only the points that can be directly captured in the field of view of the range image sensor but also the points that are located behind the subject and automatically add the estimated points. There is. However, the accuracy of the estimated points added in this way is not necessarily high. Further, in the method for creating a three-dimensional model according to the present invention, since the point of the subject can be obtained by four or more distance image sensors arranged so as to surround the subject, the estimation automatically added by the distance image sensor A point is not necessary. In the method of the above aspect, the polygon is deleted by utilizing the fact that the normal formed by the polygon including the estimated point and the line-of-sight vector from the distance image sensor toward the center of the polygon is 90 degrees or less. In addition, the accuracy of the partial 3D polygon can be increased.
さらに、本発明に係る三次元モデルの作成方法では、
g) 前記全体三次元ポリゴンモデルに、予め用意された、直線で表される複数の骨と、点で表されそれぞれが前記骨を連結する複数の関節とを含む骨格データを組み合わせた静止三次元モデルを作成する工程と、
h) 前記静止三次元モデルの各点に、該点と前記骨の距離に応じたウエイト値を設定する工程と、
i) 所定の動作を前記骨と前記関節の動きで表現する動作データを前記静止三次元モデルのデータに重畳し、該動作データと前記ウエイト値に基づいて前記点を移動させる工程と、
を含むことができる。
Furthermore, in the method for creating a three-dimensional model according to the present invention,
g) Static 3D combining the entire 3D polygon model with skeleton data prepared in advance and including a plurality of bones represented by straight lines and a plurality of joints represented by points and each connecting the bones Creating a model;
h) setting a weight value according to the distance between the point and the bone for each point of the stationary three-dimensional model;
i) superimposing motion data expressing a predetermined motion by motion of the bone and the joint on the data of the stationary three-dimensional model, and moving the point based on the motion data and the weight value;
Can be included.
上記態様の三次元モデルの作成方法では、骨格データを組み合わせた静止三次元モデルに動作データを適用して、任意の動作をさせることができる三次元モデルを作成することができる。 In the three-dimensional model creation method of the above aspect, the motion data can be applied to the stationary three-dimensional model in which the skeleton data is combined to create a three-dimensional model that can perform any motion.
また、上記課題を解決するために成された本発明に係る三次元モデル作成装置は、
a) 被写体を取り囲むように配置された4台以上の距離画像センサのそれぞれにより取得された、被写体の二次元画像データである撮像データと、当該距離画像センサから前記被写体までの距離の二次元分布を表す深度データの入力を受け付けるデータ受付部と、
b) 前記撮像データと前記深度データの各組について複数の点の空間座標を生成する点座標生成部と、
c) それぞれが前記複数の点のうち同一平面上に位置する所定個数の点を結ぶことにより作成される、複数のポリゴンの組み合わせからなる部分三次元ポリゴンモデルを作成する部分三次元ポリゴンモデル作成部と、
d) 各部分三次元ポリゴンモデルを構成する複数の点の空間座標を、対応する距離画像センサと前記被写体の位置関係に基づき予め求められた座標変換によって1つの共通空間座標系に対応する空間座標に変換し、複数の前記部分三次元ポリゴンモデルを1つに統合した全体三次元ポリゴンモデルを作成する全体三次元ポリゴンモデル作成部と、
e) 前記全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除するポリゴン集合体削除部と、
を備えることを特徴とする。
In addition, a three-dimensional model creation device according to the present invention made to solve the above problems,
a) Imaging data that is two-dimensional image data of a subject acquired by each of four or more distance image sensors arranged so as to surround the subject, and a two-dimensional distribution of distances from the distance image sensor to the subject A data receiving unit for receiving input of depth data representing
b) a point coordinate generation unit that generates spatial coordinates of a plurality of points for each set of the imaging data and the depth data;
c) A partial 3D polygon model creation unit for creating a partial 3D polygon model made up of a combination of a plurality of polygons, each created by connecting a predetermined number of points located on the same plane among the plurality of points When,
d) Spatial coordinates corresponding to one common spatial coordinate system obtained by converting the spatial coordinates of a plurality of points constituting each partial three-dimensional polygon model based on the positional relationship between the corresponding distance image sensor and the subject. An overall 3D polygon model creation unit that creates an overall 3D polygon model in which a plurality of the partial 3D polygon models are integrated into one,
e) In the overall three-dimensional polygon model, a polygon aggregate deletion unit that deletes a polygon aggregate composed of a predetermined number of polygons or less, and
It is characterized by providing.
さらに、上記課題を解決するために成された本発明に係る三次元モデルの作成システムは、
a) 予め決められた被写体位置を取り囲むように配置される、それぞれが被写体の二次元画像データである撮像データと、当該距離画像センサから前記被写体までの距離の二次元分布を表す深度データを取得可能である4台以上の距離画像センサと、
b) 使用者による所定の入力操作に応じて、前記4台以上の距離画像センサのそれぞれにより、前記被写体の撮像データと深度データを取得するデータ取得部と、
c) 前記4台以上の距離画像センサのそれぞれにより取得した、前記撮像データと前記深度データの各組について複数の点の空間座標を生成する頂点座標生成部と、
d) 前記4台以上の距離画像センサのそれぞれについて、それぞれが前記複数の点のうち同一平面上に位置する所定個数の点を結ぶことにより作成される、複数のポリゴンの組み合わせからなる部分三次元ポリゴンモデルを作成する部分三次元ポリゴンモデル作成部と、
e) 各部分三次元ポリゴンモデルを構成する複数の点の空間座標を、対応する距離画像センサと前記被写体の位置関係に基づき予め求められた座標変換によって1つの共通空間座標系に対応する空間座標に変換し、複数の前記部分三次元ポリゴンモデルを1つに統合した全体三次元ポリゴンモデルを作成する全体三次元ポリゴンモデル作成部と、
f) 前記全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除するポリゴン集合体削除部と、
を備えることを特徴とする。
Furthermore, a system for creating a three-dimensional model according to the present invention, which has been made to solve the above problems,
a) Acquire imaging data that is arranged so as to surround a predetermined subject position, each of which is two-dimensional image data of the subject, and depth data representing a two-dimensional distribution of the distance from the distance image sensor to the subject. 4 or more range image sensors that are possible,
b) a data acquisition unit for acquiring imaging data and depth data of the subject by each of the four or more distance image sensors in accordance with a predetermined input operation by a user;
c) a vertex coordinate generation unit that generates spatial coordinates of a plurality of points for each set of the imaging data and the depth data acquired by each of the four or more distance image sensors;
d) For each of the four or more distance image sensors, a partial three-dimensional combination composed of a combination of a plurality of polygons created by connecting a predetermined number of points located on the same plane among the plurality of points. A partial 3D polygon model creation unit for creating a polygon model;
e) Spatial coordinates corresponding to one common space coordinate system by converting the spatial coordinates of a plurality of points constituting each partial three-dimensional polygon model into coordinates based on the positional relationship between the corresponding distance image sensor and the subject. An overall 3D polygon model creation unit that creates an overall 3D polygon model in which a plurality of the partial 3D polygon models are integrated into one,
f) In the overall three-dimensional polygon model, a polygon aggregate deleting unit that deletes a polygon aggregate composed of a predetermined number of polygons or less, and
It is characterized by providing.
本発明に係る三次元モデルの作成技術を用いることにより、任意の方向から見ることができる被写体の三次元モデルを簡便に作成することができる。 By using the 3D model creation technique according to the present invention, it is possible to easily create a 3D model of a subject that can be viewed from any direction.
本発明に係る三次元モデルの作成方法、作成装置、及び作成システムの実施例について、以下、図面を参照して説明する。本実施例は、人間(被写体)を距離画像センサにより撮影したデータをコンピュータ処理することにより三次元ポリゴンモデルを作成するとともに、モーションデータを重畳して該三次元ポリゴンモデルに任意の動きを与えた三次元モデルを作成する技術である。 Embodiments of a 3D model creation method, a creation apparatus, and a creation system according to the present invention will be described below with reference to the drawings. In this embodiment, a three-dimensional polygon model is created by computer processing data obtained by photographing a human (subject) with a distance image sensor, and an arbitrary motion is given to the three-dimensional polygon model by superimposing motion data. This is a technique for creating a three-dimensional model.
図1は、本実施例における三次元モデルの作成システム1(以下、単に「作成システム」とも呼ぶ。)の概略構成図である。また、図2は、本実施例における三次元モデルの作成方法(以下、単に「作成方法」とも呼ぶ。)におけるフローチャートである。 FIG. 1 is a schematic configuration diagram of a three-dimensional model creation system 1 (hereinafter also simply referred to as “creation system”) in the present embodiment. FIG. 2 is a flowchart of a 3D model creation method (hereinafter also simply referred to as “creation method”) in the present embodiment.
本実施例の作成システム1は、撮像空間10において被写体位置Pを取り囲むように配置され、撮影制御部16による制御の下で動作する4台の距離画像センサ11〜14と、三次元モデル作成装置20(本発明に係る三次元モデル作成装置の一実施例に相当。以下、単に「作成装置」とも呼ぶ。)を備えている。4台の距離画像センサ11〜14のうちの3台(11〜13)は水平方向から被写体を捉えるように、等間隔に横置きで配置され、1台(14)は被写体の鉛直上方から被写体を捉えるように配置される。水平方向から被写体を捉える3台の距離画像センサ11〜13の視野には、被写体と所定の背景11a〜13a(例えばや単色の布や壁)が捉えられる。また、鉛直上方から被写体を捉える距離画像センサ14の視野には被写体と床が捉えられる。各距離画像センサ11〜14は、その視野に他の距離画像センサが入り込まないように配置される。本実施例の距離画像センサ11〜14にはKinect(MICROSOFT CORPORATIONの登録商標、製品名)であるが、同様に撮像データと深度データを取得可能なものであれば他のセンサを用いてもよい。
The
作成装置20は、記憶部21のほかに、データ受付部22、点座標生成部23、部分三次元ポリゴンモデル作成部24、ポリゴンリダクション部25、背面ポリゴン削除部26、テクスチャ設定部27、全体三次元ポリゴンモデル作成部28、ノイズ削除部29、重複点整理部30、全体三次元ポリゴンモデル補正部31、ボーンデータ生成部32、ウエイト設定部33、及びモーションデータ重畳部34を機能ブロックとして備えている。作成装置20の実体は一般的なパーソナルコンピュータであり、入力部40、及び表示部50が接続されている。また、上記各機能ブロック22〜34は、コンピュータにインストールされた三次元モデル作成用プログラムをCPUに実行させることにより具現化することができる。各部の動作は後述する。記憶部21には、次に説明する手順により作成される座標変換行列、及び後述するモーションデータが保存されている。
In addition to the
記憶部21に保存される座標変換行列は以下のようにして作成される。
被写体の三次元モデルを作成するに先立ち、上記4台の距離画像センサ11〜14の位置と視野を固定する。そして、被写体として複数のボール(同一直線上に位置しない少なくとも3個のボール)を配置して各距離画像センサ11〜14で該複数のボールを撮影し、該複数のボールの撮像データと深度データを取得する。ここで、撮像データとは二次元のカラー画像データ(二次元に配置された各画素が色情報を持つデータ)であり、深度データとは距離画像センサからの距離の二次元分布を表すデータである。
The coordinate transformation matrix stored in the
Prior to creating the three-dimensional model of the subject, the positions and fields of view of the four
各距離画像センサ11〜14について、それぞれ前記複数のボールの撮像データと深度データを取得すると、これらデータの組から、各距離画像センサ11〜14から見た複数のボールのそれぞれの空間座標が求められる。このとき求められる空間座標を規定する3軸は4台の距離画像センサ11〜14でそれぞれ異なる。続いて、同一のボールについて異なる距離画像センサから求められた空間座標が相互に比較され、これにより4つの距離画像センサの間の3軸の関係が求められ、各距離画像センサの空間座標系を1つの共通する空間座標系に変換するための変換行列が、距離画像センサ毎に作成される。なお、1つの共通する空間座標系として、4台の距離画像センサのうちの1つの空間座標系をそのまま用いることができる。
When the imaging data and the depth data of the plurality of balls are acquired for each of the
以下、本実施例における三次元モデルの作成方法を説明する。
使用者が所定の入力(例えば入力部を通じて画面上の「スタート」ボタンを押下する入力動作)により三次元モデルの作成を指示すると、撮影制御部16が、使用者に被写体位置に所定のポーズで立つよう指示する。ここで、所定のポーズとは、撮影時に全ての距離画像センサ11〜14の死角になる領域をできるだけ少なくしたポーズであり、例えば両手を水平に広げ、足を肩幅程度に広げて立つ姿勢(Tポーズと呼ばれる姿勢)である。
Hereinafter, a method for creating a three-dimensional model in this embodiment will be described.
When the user gives an instruction to create a 3D model by a predetermined input (for example, an input operation of pressing the “start” button on the screen through the input unit), the
撮影制御部16は、使用者に上記指示を行ってから一定時間(使用者が上記ポーズで被写体位置に立つまでに要する時間)経過後、全ての距離画像センサ11〜14を同時に動作させ、それぞれについて撮像データと深度データを取得する(ステップS1)。各距離画像センサ11〜14で取得された撮像データと深度データは、それぞれ1組のデータとして三次元モデル作成装置20に送信される。本実施例で距離画像センサ11〜14として用いているKinectは、被写体の輪郭をKinect自身が有するボーンデータベースと照合し、適合するボーンデータ(人間を複数の骨と、骨を連結する関節で表現したデータ。骨格データともいう。)を出力する機能を備えているため、撮像データと深度データに加え、被写体のボーンデータも同時に得られる(ステップS2)。このボーンデータも同時に三次元モデル作成装置20に送信される。
The
データ受付部22は各距離画像センサ11〜14から送られる撮像データ及び深度データ、並びにボーンデータを受け取り、記憶部21に保存する。撮像データと深度データが記憶部21に保存されると、点座標生成部23は、距離画像センサ11〜14のそれぞれについて、撮像データの各画素位置に対応する平面座標及び各画素が有する色情報と、深度データの各点における距離情報から、それぞれが空間座標と色情報を持つ多数の点(ポイントクラウド)を生成する(ステップS3)。
The
続いて、部分三次元ポリゴンモデル作成部24は、各距離画像センサ11〜14について生成した、空間座標を持つ複数の点から所定の規則(例えばドロネー三角形分割法に基づく規則)に従って近接3点を結んでなる三角形(ポリゴン)を順次生成し、前記複数の点から部分三次元ポリゴンモデルを作成する(ステップS4)。ここで、部分三次元ポリゴンモデルとは、被写体を特定の1方向(即ち対応する距離画像センサ)から見た三次元ポリゴンモデルである。このときポリゴンの各面の色は、当該面を構成する3点の色(色情報に基づく色)の平均色となる。なお、ここでは3点を結んでなる三角形をポリゴンとしたが、4点以上を結んでポリゴンを作成してもよい。
Subsequently, the partial three-dimensional polygon
各距離画像センサ11〜14について部分三次元ポリゴンモデルが作成されると、ポリゴンリダクション部25は、各部分三次元ポリゴンモデルをハイポリゴン(多数の点から作成されたポリゴン)からローポリゴン(ハイポリゴンよりも少ない点数で作成されたポリゴン)に変換するポリゴンリダクションを実行する。この変換は、各ポリゴンを該ポリゴンの重心に位置する1つの点に変換する操作(変換された点の色はポリゴンの色になる)を全てのポリゴンについて行い、これにより作成された新たな点を上記ドロネー三角形法等により結んで新たなポリゴンを生成し(このポリゴンの色は当該ポリゴンを構成する点の色の平均色となる)、新たに部分三次元ポリゴンモデル(ローポリゴン)を作成することにより実行される(ステップS5)。この処理によりポリゴン数が少なくなるため、後述する各工程における処理の負荷が軽減され高速処理が実現される。なお、本実施例ではパーソナルコンピュータを三次元モデル作成装置20として用いているため、処理の負荷の軽減を目的とするポリゴンリダクションを行ったが、高速処理が可能なハイエンドのコンピュータを三次元モデル作成装置20として用いる場合にはポリゴンリダクションを行うことなく(即ちハイポリゴンのまま)以下の工程を行うようにしてもよい。
When a partial 3D polygon model is created for each of the
次に、背面ポリゴン削除部26は、各部分三次元ポリゴンモデルについて、該部分三次元ポリゴンモデルを構成する全てのポリゴンの法線と、対応する距離画像センサ11〜14の視線ベクトルのなす角度を求め、これが90度以下であるポリゴンを不要ポリゴンと見なして削除する(ステップS6)。これは、距離画像センサの視野に直接捉えることが不可能な、被写体の背面側を構成するポリゴンの法線と、当該ポリゴンの中心に向かう距離画像センサ11〜14の視線ベクトルがなす角度が90度以下になることを利用した処理である。本実施例において用いるKinectは、直接視野に捉えることができない被写体の背面側にも推定点を生成する機能を有しているが、必ずしもその精度は高くない。また、本実施例の三次元モデル作成方法では、複数のKinectによりそれぞれ異なる方向から見た部分三次元ポリゴンモデルを作成するため、こうした推定点を結んで成るポリゴンを用いる必要もない。従って、本実施例では、上記方法で不要ポリゴンを削除する。なお、被写体の背面側に推定点を生成する機能を有しない距離画像センサを用いる場合は、このステップを行う必要はない。
Next, for each partial 3D polygon model, the back
この段階では、部分三次元ポリゴンモデルを構成するポリゴンのそれぞれが1色で表現されており、隣接するポリゴンとの色の差が目立つ。そこで、テクスチャ設定部27が、各部分三次元ポリゴンモデルに、対応する距離画像センサ11〜14で取得した撮像データを貼り合わせる処理(テクスチャの貼り付け処理)を行う(ステップS7)。この処理は、撮像データを各部分三次元ポリゴンモデルに投影することにより行われる。各部分三次元ポリゴンモデルは、上記ポリゴンリダクションにより点数を減らしているため、画素データを構成する画素数と一致しない。言い換えれば、画素データを投影したときに画素の位置と点の位置は一致しない。しかし、投影処理においてこれらが必ずしも一致する必要はなく、むしろ、一致しないことにより、点と点を結ぶ線分やポリゴンを複数の異なる色で表現することが可能になる。上記点数の不一致は、例えば、画素データの解像度と深度データの解像度が同一でなく(例えば深度データの方が解像度が低く)、上述のステップS3において低い解像度のデータに合わせて複数の点を生成した場合にも起こる。
At this stage, each of the polygons constituting the partial three-dimensional polygon model is expressed by one color, and the color difference from the adjacent polygon is conspicuous. Therefore, the
部分三次元ポリゴンモデルへのテクスチャの貼り付けを終えると、全体三次元ポリゴンモデル作成部28は、記憶部21から、距離画像センサ11〜14に対応する座標変換行列をそれぞれ読み出す。そして、全ての部分三次元ポリゴンモデルを構成する各点の空間座標を、対応する座標変換行列により共通の空間座標系における空間座標に変換する。これにより、全ての部分三次元ポリゴンモデルが1つの空間座標系に配置され、自動的に部分三次元ポリゴンモデルが統合され、全体三次元ポリゴンモデルが作成される(ステップS8)。そのため、従来のように、オペレータが自ら各部分三次元ポリゴンモデルを回転、移動して結合位置を決めたり、該結合位置において端部データを連結させたりする処理を行う必要がなく、簡便かつ正確に全体三次元ポリゴンモデルを作成することができる。
When the pasting of the texture to the partial 3D polygon model is finished, the overall 3D polygon
次に、ノイズ削除部29は、作成された全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除(ノイズであるポリゴン集合体を削除)する(ステップS9)。距離画像センサ11〜14から得られる深度データには距離情報の多少の誤差が含まれていることが多い。こうした誤差を含んだ複数の点で構成されるポリゴン集合体は、被写体を構成する多数のポリゴンから離間して空間に浮遊しており、また該集合体を構成するポリゴンの数も少ない。本実施例の三次元モデル作成方法ではこうしたポリゴン集合体を、構成するポリゴンの数に基づいて機械的に削除するため、従来のようにオペレータが距離情報の誤差を含む点からなるポリゴンを個別に確認して手作業で削除する必要がなく、簡便に全体三次元ポリゴンモデルを作成することができる。
Next, the
さらに、重複点整理部30は、全体三次元ポリゴンモデルが位置する空間の3軸方向のそれぞれにおいて所定の間隔でグリッドを配置し、空間を微小な立方体に分割する。この所定の間隔は、全体三次元ポリゴンモデルを構成する点の数に応じて適宜に決められる。そして、各立方体の内部に存在する点の数を確認し、1つの立方体内に複数の点が存在する場合にはそれらの平均座標に位置する1つの点に集約する(ステップS10)。これは、部分三次元ポリゴンモデルから全体三次元ポリゴンモデルを作成したときに、隣接する部分三次元ポリゴンモデルの結合領域に存在する重複点を削除する処理である。こうした重複点を削除することにより、ポリゴンが重複して存在する等の見た目の違和感を解消することができ、また必要以上に点数が多くなって処理の負荷が増大することを避けることができる。
Furthermore, the overlapping
次に、全体三次元ポリゴンモデル補正部31が、上記ステップにより作成された全体三次元ポリゴンモデルに穴がないかを確認し、穴が存在する場合にはそれを埋める処理を行う(ステップS11)。この処理は、穴の近傍に位置する点から、穴の内部に適宜の推測点を生成し、生成した点を用いて新たなポリゴンを作成することにより行われる。こうした穴埋め処理は、例えばフォトショップ(アドビ システムズ インコーポレイテッドの登録商標、製品名)の一機能として従来知られている。ただし、フォトショップ等のソフトウェアによりこの穴埋め処理を行うと、穴を埋めるために多数の点が新しく生成され、以降の処理の負荷が増大する場合がある。こうした場合には、上述したポリゴンリダクションにより適宜に点数を減らし、以降の処理における負荷を軽減することが好ましい。また、フォトショップ等のソフトウェアではこの穴埋め処理においてテクスチャ情報が削除されることがある。このような場合には、以降の適宜の段階で、再度、上述したテクスチャ貼り付け処理を行う必要がある(ステップS12)。
Next, the overall 3D polygon
以上の各工程により、全体三次元ポリゴンモデルが作成される。
上述のとおり、本実施例の三次元ポリゴンモデル作成方法、作成システム、あるいは作成装置では、複数台の距離画像センサのそれぞれに対応する部分三次元ポリゴンモデルを作成し、座標変換により部分三次元ポリゴンモデルを1つの共通空間座標系に対応した変換部分三次元ポリゴンモデルに変換し、それらを組み合わせて全体三次元ポリゴンモデルに統合する。つまり、座標変換によって自動的に部分三次元ポリゴンモデルを統合して全体三次元ポリゴンモデルを作成することができる。従って、従来のようにオペレータが部分三次元ポリゴンモデルを回転・移動したり端部のデータを組み合わせたりする必要がなく、簡便に全体三次元ポリゴンモデルからなる三次元モデルを作成することができる。
Through the above steps, the entire three-dimensional polygon model is created.
As described above, in the 3D polygon model creation method, creation system, or creation apparatus of this embodiment, a partial 3D polygon model corresponding to each of a plurality of distance image sensors is created, and the partial 3D polygon is converted by coordinate conversion. The model is converted into a converted partial 3D polygon model corresponding to one common space coordinate system, and these are combined and integrated into the entire 3D polygon model. That is, the partial three-dimensional polygon model can be automatically integrated by coordinate conversion to create an entire three-dimensional polygon model. Therefore, there is no need for the operator to rotate and move the partial 3D polygon model or to combine the edge data as in the prior art, and a 3D model consisting of the entire 3D polygon model can be easily created.
また、全体三次元ポリゴンモデルから、所定数以下のポリゴンが連なって構成されたポリゴン集合体を機械的に削除する。そのため、従来のようにオペレータが距離情報の誤差を含む点からなるポリゴンを個別に確認して手作業で削除する必要がなく、簡便に全体三次元ポリゴンモデルを作成することができる。 In addition, a polygon aggregate composed of a predetermined number or less of polygons is mechanically deleted from the entire three-dimensional polygon model. For this reason, it is not necessary for the operator to individually check polygons including points including errors in distance information and delete them manually, as in the prior art, and an entire three-dimensional polygon model can be created easily.
次に、上記全体三次元ポリゴンモデルに動きを与えて三次元モデルを作成する手順を説明する。
まず、ボーンデータ生成部32が、ステップS2において生成され記憶部21に保存されたボーンデータを読み出し、全体三次元ポリゴンモデルに重畳する。これにより、静止三次元モデルが得られる。そして、ウエイト設定部33が、全体三次元ポリゴンモデルの各点から骨までの距離に応じたウエイト値を設定する(ステップS13)。このウエイト値は、骨の動きが各点の動きに対してどの程度影響を及ぼすかを表す値であり、骨までの距離が近いほど大きな値に、遠くなるにつれて小さな値に設定される。本実施例では、距離画像センサとしてKinectを用いたため、被写体の撮影時にボーンデータを取得し記憶部21に保存しているが、ボーンデータを生成する機能を有しない距離画像センサを用いる場合には、ボーンデータ生成部32が、全体三次元ポリゴンモデルの輪郭を人間の種々のポーズに対応するボーンデータが保存された適宜のデータベースと照合することにより、新たにボーンデータを生成することができる。
Next, a procedure for creating a three-dimensional model by giving a motion to the entire three-dimensional polygon model will be described.
First, the bone
次に、モーションデータ重畳部34は、記憶部21に予め保存されているモーションデータを全て読み出し、その名称や動作例を画面表示して使用者に選択を促す。モーションデータとは、ボーンデータに含まれている骨の動きを規定したデータであり、これにより種々の動作を表現することができる。使用者が1つのモーションデータを選択すると、モーションデータ重畳部34は該モーションデータを上記静止三次元モデルに重畳する(ステップS14)。モーションデータ自体は骨を動かすデータであるが、骨を動かすことに伴って、前述のウエイト値に応じた大きさで静止三次元モデルの各点が移動するため、その結果、全体三次元ポリゴンモデルが所定の動作を行っているように画面上に表示することができる。
Next, the motion
次に、このようにして作成される三次元モデルの利用例を説明する。
この利用例は、イベントの主催者が予め用意した、三次元コンピュータグラフィック(3DCG)で作成された仮想現実(VR:Virtual Reality)空間において参加者同士が自らの三次元モデルを介して交流することを可能にするものである。
Next, an example of using the three-dimensional model created in this way will be described.
In this example, participants interact with each other through their own 3D model in a virtual reality (VR) space created by 3D computer graphics (3DCG) prepared in advance by the event organizer. Is possible.
まず、イベントの参加者は、それぞれ上記実施例の方法により自らの三次元モデルを作成する。そして、イベントの主催者が用意した仮想現実空間にそのデータを転送する。これにより仮想現実空間に各参加者の三次元モデルが取り込まれる。各参加者は、自身の身体動作を入力する入力装置、及びヘッドマウントディスプレイ(HMD)を装着する。身体動作の入力装置には、例えばトレッドミル歩行デバイスがある。これは、デバイスの各所に取り付けられた振動センサにより参加者の身体の各部の動きを検出し、これを統合してモーションデータを生成するものである。あるいは、上述したKinect等のモーションセンサを用いて参加者の身体動作を検出(骨格ジェスチャ検出)することによりモーションデータを生成してもよい。また、ヘッドマウントティスプレイは、仮想現実空間が表示される画面、該仮想現実空間の音声が流れるヘッドフォン、及び参加者の音声を認識するマイクを備えている。 First, event participants create their own three-dimensional models by the method of the above embodiment. Then, the data is transferred to the virtual reality space prepared by the event organizer. Thereby, the three-dimensional model of each participant is taken into the virtual reality space. Each participant wears an input device for inputting his / her body movement and a head mounted display (HMD). An example of an input device for body movement is a treadmill walking device. In this method, motion of each part of the participant's body is detected by vibration sensors attached to various parts of the device, and these are integrated to generate motion data. Or you may produce | generate motion data by detecting a participant's physical motion (skeletal gesture detection) using motion sensors, such as Kinect mentioned above. The head mounted display includes a screen on which a virtual reality space is displayed, headphones through which sound in the virtual reality space flows, and a microphone that recognizes the voice of the participant.
参加者がヘッドマウントディスプレイから取得した仮想現実空間の視覚情報や聴覚情報に反応して身体を動かすと、モーションデータが仮想現実空間内の三次元モデルの動きとなって反映される。そして、仮想現実空間内に取り込まれた三次元モデル同士が所定の距離まで近づくと相互の間で会話が可能となり参加者間の交流が実現する。なお、こうしたイベントは、必ずしも特別にイベント会場を設けて行う必要はなく、ネットワークを介して接続された装置を介して各参加者が仮想現実空間内での交流や疑似体験を楽しむものとすることができる。 When a participant moves his / her body in response to visual information or auditory information in the virtual reality space acquired from the head-mounted display, the motion data is reflected as the movement of the three-dimensional model in the virtual reality space. Then, when the three-dimensional models captured in the virtual reality space approach each other to a predetermined distance, a conversation is possible between them, and exchange between participants is realized. These events do not necessarily have to be held in a special event venue, and each participant can enjoy exchanges and simulated experiences in a virtual reality space via a device connected via a network. .
次に、実施例1の三次元モデル作成システム1を用いた三次元モデルの作成により得られた知見に基づき、該作成システム1を改良した実施例2の三次元モデル作成システム100について説明する。実施例2では、距離画像センサの台数及び配置と、座標変換行列の取得に係る処理が実施例1と異なるため、これらを中心に説明する。
Next, the 3D
図3は、実施例2の三次元モデルの作成システム100(以下、単に「作成システム」とも呼ぶ。)の概略構成図である。図1と共通する構成要素については下二桁が共通の符号を付し、適宜説明を省略する。なお、被写体の撮影(ステップS1)からモーションデータの重畳(ステップS14)の各ステップにおける処理は実施例1(図2)と同様であるため説明を省略する。 FIG. 3 is a schematic configuration diagram of a 3D model creation system 100 (hereinafter also simply referred to as “creation system”) according to the second embodiment. Constituent elements common to those in FIG. 1 are denoted by common reference numerals in the last two digits, and description thereof will be omitted as appropriate. Note that the processing in each step from photographing the subject (step S1) to superimposing motion data (step S14) is the same as that in the first embodiment (FIG. 2), and thus the description thereof is omitted.
実施例1の作成システム1では被写体位置Pを取り囲むように4台の距離画像センサ11〜14を用いたが、実施例2の作成システム100では12台の距離画像センサ1111〜1112を用いる。距離画像センサ1111〜1122は2台1組で、撮像空間110内で被写体位置Pを取り囲む6箇所に配置する。距離画像センサ1111、1112は被写体位置Pの正面に、距離画像センサ1117、1118は被写体位置Pの背面に配置する。2台1組の距離画像センサのうち、図中の符号が奇数のもの(1111等)は上方から被写体を捉えるように、図中の符号が偶数のもの(1112等)は下方から被写体を捉えるように、支柱160の上下に取り付けられる(図3の右上図参照)。実施例2の距離画像センサ1111〜1122は実施例1と同じくKinectであるが、撮像データと深度データを取得可能なものであれば他のセンサを用いてもよい。
In the
実施例2では、距離画像センサ1111(被写体正面上方に位置する距離画像センサ)及び1118(被写体背面下方に位置する距離画像センサ)により被写体のボーンデータを取得する。また、距離画像センサ1111〜1122により被写体の撮像データと深度データを取得する。実施例2では、実施例1よりも多くの距離画像センサ1111〜1122を用い、それらを実施例1の距離画像センサ11〜14よりも被写体位置Pに近づけて配置し、撮像データと深度データを取得する。これにより、各距離画像センサが捉える被写体の範囲を実施例1よりも狭くして、撮像データの解像度(位置分解能)を高めている。また、実施例1よりも各距離画像センサ1111〜1122から被写体までの距離が短くなるため、深度データの精度も向上する。さらに、撮像空間110を実施例1よりもコンパクトにすることができる。
In the second embodiment, the bone data of the subject is acquired by the distance image sensor 1111 (distance image sensor located above the subject front) and 1118 (distance image sensor located below the subject back). In addition, the imaging data and depth data of the subject are acquired by the
また、実施例1では被写体が両手を水平に広げ、足を肩幅程度に広げて立つ姿勢(Tポーズと呼ばれる姿勢)で撮像データ及び深度データを取得したが、実施例2では、被写体が両手を斜め下におろした姿勢(Aポーズと呼ばれる姿勢)で撮像データ及び深度データを取得する。距離画像センサの台数を増やすとともに被写体の姿勢をAポーズに変更することで、実施例1よりも死角を減らし、また深度データの精度を高めている。 In the first embodiment, the image data and the depth data are acquired in a posture where the subject stands with both hands horizontally spread and the legs widened to the shoulder width (posture called T-pose). In the second embodiment, the subject holds both hands. Imaging data and depth data are acquired in a posture that is inclined downward (a posture called an A pose). By increasing the number of distance image sensors and changing the posture of the subject to the A pose, the blind spot is reduced more than in the first embodiment, and the accuracy of the depth data is increased.
作成装置120は、記憶部121のほかに、データ受付部122、点座標生成部123、部分三次元ポリゴンモデル作成部124、ポリゴンリダクション部125、背面ポリゴン削除部126、テクスチャ設定部127、全体三次元ポリゴンモデル作成部128、ノイズ削除部129、重複点整理部130、全体三次元ポリゴンモデル補正部131、ボーンデータ生成部132、ウエイト設定部133、及びモーションデータ重畳部134を機能ブロックとして備えている。作成装置120の実体は一般的なパーソナルコンピュータであり、入力部140、及び表示部150が接続されている。また、実施例1と同様に、上記各機能ブロック122〜134は、コンピュータにインストールされた三次元モデル作成用プログラムをCPUに実行させることにより具現化することができる。記憶部121には、次に説明する手順により作成される第1座標変換行列及び第2座標変換行列と、モーションデータが保存されている。
In addition to the
第1座標変換行列及び第2座標変換行列は以下のようにして作成する。
被写体の三次元モデルを作成するに先立ち、12台の距離画像センサ1111〜1122の位置と視野を固定する。実施例1では複数のボールを被写体として用いたが、実施例2では表裏面に異なるARマーカをプリントした薄板200を用いる。例えば、図4(a)に示すARマーカを表面に、図4(b)に示すARマーカを裏面に、それらの四隅A〜Dの位置が表裏面で一致するように貼り付けたものを用いる。
The first coordinate transformation matrix and the second coordinate transformation matrix are created as follows.
Prior to creating the three-dimensional model of the subject, the positions and fields of view of the twelve
使用者は、この薄板200を立てた状態でその下方(ARマーカが貼り付けられていない位置)を持ち撮像空間110内を移動する。その間、12台の距離画像センサ1111〜1122に、所定の時間間隔(例えば5秒ごと)でARマーカの四隅を自動検知させる。例えば、ある時点では距離画像センサ1111〜1116が薄板200の表面(図4(a)のARマーカ)を捉え、一方、距離画像センサ1117〜1122が薄板200の裏面(図4(b)のARマーカ)を捉えることになる。所定回数(例えば150回)の自動検知を終えると、各時点で取得したARマーカの四隅の位置A〜Dに基づきARマーカの外枠の形状(外形)を確認する。ARマーカの四隅の位置が正しく取得されていれば、この外形は矩形(正方形)であるが、Kinectが発する赤外線が別のKinectが発する赤外線と干渉して深度データに誤差が生じたり、画像処理の精度が悪かったりすることによりARマーカの外形に歪みが生じる。そこで、ARマーカの外形の角部の角度が90度からずれているデータ(例えば±5度以上の歪みが生じているデータ)を削除し、正しい位置情報が得られているもののみを第1座標変換行列の作成に使用する。そして、12台の距離画像センサ1111〜1122のうちの複数台が同じ時点に取得したARマーカの四隅A〜Dの空間座標を照合することにより、12台の距離画像センサ1111〜1122の空間座標系を共通の空間座標系に変換する(例えば距離画像センサ1112〜1122の空間座標系を距離画像センサ1111の空間座標系に変換する)第1座標変換行列を得る。
The user moves in the
実施例1で説明したように、この三次元モデル作成システムでは、各距離画像センサで被写体のポイントクラウドを取得し、次いでそのポイントクラウドから部分三次元ポリゴンモデルを作成し、その後に座標変換行列を用いて部分三次元ポリゴンモデルの空間座標系を共通の空間座標系に変換して全体三次元ポリゴンモデルを作成する。従って、部分三次元ポリゴンモデルの空間座標系の変換(全体三次元ポリゴンモデルの作成)には、ポリゴンモデルの空間座標系で作成された座標変換行列を用いる必要がある。 As described in the first embodiment, in this three-dimensional model creation system, a point cloud of a subject is acquired by each distance image sensor, then a partial three-dimensional polygon model is created from the point cloud, and then a coordinate transformation matrix is obtained. By using this, the spatial coordinate system of the partial 3D polygon model is converted into a common spatial coordinate system to create an entire 3D polygon model. Therefore, it is necessary to use the coordinate transformation matrix created in the spatial coordinate system of the polygon model for the transformation of the spatial coordinate system of the partial 3D polygon model (creation of the entire 3D polygon model).
しかし、本発明者が実施例1の作成システム1を用いて確認したところ、距離画像センサとしてKinectを用いた場合、生データであるポイントクラウドと、そのポイントクラウドから生成されるポリゴンデータでは座標軸にずれがあることが分かった。そこで、この座標軸のずれを補正するために、実施例2では第2座標変換行列を用いる。
However, when the present inventor confirmed using the
距離画像センサ1111〜1122について、1台ずつ上記ARマーカを撮影してポイントクラウドを取得し、そのポイントクラウドからポリゴンデータを作成する。そして、ポイントクラウド上でのARマーカの四隅A〜Dの空間座標と、ポリゴンデータにおけるARマーカの四隅A〜Dの空間座標を照合することにより、ポイントクラウドの座標をポリゴンデータの座標に変換する第2座標変換行列を作成する。この第2座標変換行列は距離画像センサ1111〜1122のそれぞれについて作成し、記憶部121に保存しておく。なお、第2座標変換行列を作成する際、実際にデータを取得する距離画像センサは1台のみであるが、他の距離画像センサも動作させておくことが好ましい。被写体のデータを取得する際には全ての距離画像センサを動作させるため、それらから発せられる赤外線の一部が干渉することは避けられない。従って、これと同じ状況下で取得したデータから座標変換行列を作成することにより、赤外線の一部が干渉した状況が加味された、精度の高い第2座標変換行列を得ることができる。
For the
実施例1のステップS8では、距離画像センサ11〜14に対応する座標変換行列を記憶部21から読み出し、各距離画像センサ11〜14で作成された部分三次元ポリゴンモデルを構成する各点の空間座標を共通の空間座標系における空間座標に変換することにより全体三次元ポリゴンモデルを作成した。実施例2では、ポイントクラウドの空間座標系で作成された第1座標変換行列に、ポイントクラウドの座標軸をポリゴンデータの座標軸に変換する第2座標変換行列を演算してポリゴンデータの空間座標系のものに変換する。これにより、Kinectのように、ポイントクラウドのデータの座標軸とポリゴンデータの座標軸にずれがあるような距離画像センサを用いる場合でも、そのずれを補正することができる。従って、より正確に部分三次元ポリゴンモデルの空間座標系を共通の空間座標系に変換し、ずれのない全体三次元ポリゴンモデルを作成することができる。
In step S8 of the first embodiment, the coordinate transformation matrix corresponding to the
上記2つの実施例はいずれも一例であって、本発明の趣旨に沿って適宜に変更することができる。
上記実施例では、三次元モデル作成システム1において被写体をその場で撮影し、撮像データ及び深度データを取得して三次元モデル作成装置20に送信する構成としたが、予め取得された撮像データ及び深度データを、該データを取得した距離画像センサの配置データとともに三次元モデル作成装置20に入力し、上記同様の各工程により三次元モデルを作成することもできる。
また、各独立請求項に記載の構成が本発明における必須の構成要件である。上記実施例において説明した各工程及び各構成要素は一例であり、必ずしも本発明を具現化するために上述した全ての工程及び構成要素を備える必要はない。
さらに、必ずしも1台のコンピュータで上記三次元モデル作成装置20を構成する必要はない。例えば、ネットワークを介して接続された複数台のコンピュータに上記三次元モデル作成装置20の機能ブロックを分散配置し、これらを協働させるようにしてもよい。
The above two embodiments are only examples, and can be appropriately changed in accordance with the gist of the present invention.
In the above embodiment, the 3D
The configuration described in each independent claim is an essential component in the present invention. Each step and each component described in the above embodiment are examples, and it is not always necessary to include all the steps and components described above in order to embody the present invention.
Furthermore, it is not always necessary to configure the three-dimensional
上記実施例の三次元モデル作成システム1は、例えばプリクラ(株式会社セガゲームス社の登録商標)のように、ゲームセンターや商業施設などに配置して用いることができる。この場合には、例えば利用者から所定の利用料金が投入されることにより三次元モデル作成指示が与えられ、上述の各工程を経て全体三次元ポリゴンモデル、ボーンデータ、及びモーションデータを書き込んだ記録媒体(例えばDVD−ROM)を利用者に提供したり、利用者のスマートフォンやパソコン等の可搬型端末にこれらのデータを転送したりするように構成することができる。これらの可搬型端末に、三次元モデルのデータを読み込み、利用者が自らの三次元モデルを編集してアバターを作成するアプリケーション、該三次元モデルからなる主人公を操作して他の利用者と対戦するネットワーク通信ゲームのアプリケーション、あるいは該三次元モデルに利用者が選んだ服を着せ替えてネットショッピングを楽しむアプリケーションなど、様々なアプリケーションのソフトウェアをインストールしておくことにより、利用者自身の三次元モデルを多様な形態で楽しむことができる。
The three-dimensional
1、100…三次元モデル作成システム
10、110…撮像空間
11〜14、1111〜1122…距離画像センサ
P…被写体位置
16、116…撮影制御部
20、120…三次元モデル作成装置
21、121…記憶部
22、122…データ受付部
23、123…点座標生成部
24、124…部分三次元ポリゴンモデル作成部
25、125…ポリゴンリダクション部
26、126…背面ポリゴン削除部
27、127…テクスチャ設定部
28、128…全体三次元ポリゴンモデル作成部
29、129…ノイズ削除部
30、130…重複点整理部
31、131…全体三次元ポリゴンモデル補正部
32、132…ボーンデータ生成部
33、133…ウエイト設定部
34、134…モーションデータ重畳部
35、135…モーションデータ重畳部
40、140…入力部
50、150…表示部
160…支柱
200…薄板
DESCRIPTION OF SYMBOLS 1,100 ... Three-dimensional
Claims (11)
b) 前記4台以上の距離画像センサのそれぞれについて、前記撮像データと前記深度データから複数の点の空間座標を生成する工程と、
c) 前記4台以上の距離画像センサのそれぞれについて、それぞれが前記複数の点のうち同一平面上に位置する所定個数の点を結ぶことにより作成される、複数のポリゴンの組み合わせからなる部分三次元ポリゴンモデルを作成する工程と、
d) 各部分三次元ポリゴンモデルを構成する複数の点の空間座標を、対応する距離画像センサと前記被写体の位置関係に基づき予め求められた座標変換によって1つの共通空間座標系に対応する空間座標に変換し、複数の前記部分三次元ポリゴンモデルを1つに統合した全体三次元ポリゴンモデルを作成する工程と、
e) 前記全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除する工程と
を含むことを特徴とする三次元モデルの作成方法。 a) Image data that is two-dimensional image data of a subject and depth data representing a two-dimensional distribution of the distance from the distance image sensor to the subject by each of four or more distance image sensors arranged so as to surround the subject. A process of obtaining
b) generating spatial coordinates of a plurality of points from the imaging data and the depth data for each of the four or more range image sensors;
c) A partial three-dimensional combination of a plurality of polygons created by connecting a predetermined number of points located on the same plane among the plurality of points for each of the four or more distance image sensors. Creating a polygon model;
d) Spatial coordinates corresponding to one common spatial coordinate system obtained by converting the spatial coordinates of a plurality of points constituting each partial three-dimensional polygon model based on the positional relationship between the corresponding distance image sensor and the subject. Converting the plurality of partial three-dimensional polygon models into one and creating a whole three-dimensional polygon model;
e) a method of creating a three-dimensional model, comprising: a step of deleting a polygon aggregate formed by connecting a predetermined number or less of polygons in the whole three-dimensional polygon model.
を含むことを特徴とする請求項1又は2に記載の三次元モデルの作成方法。 f) In each of the partial three-dimensional polygon models, the angle formed by the line-of-sight vector from the distance image sensor to the center point of the polygon and the normal vector of the polygon among the plurality of polygons is 90 degrees or less. The method for creating a three-dimensional model according to claim 1, further comprising a step of deleting a polygon.
h) 前記静止三次元モデルの各点に、該点と前記骨の距離に応じたウエイト値を設定する工程と、
i) 所定の動作を前記骨と前記関節の動きで表現する動作データを前記静止三次元モデルのデータに重畳し、該動作データと前記ウエイト値に基づいて前記点を移動させる工程と、
を含むことを特徴とする請求項1〜3のいずれかに記載の三次元モデルの作成方法。 g) Static 3D combining the entire 3D polygon model with skeleton data prepared in advance and including a plurality of bones represented by straight lines and a plurality of joints represented by points and each connecting the bones Creating a model;
h) setting a weight value according to the distance between the point and the bone for each point of the stationary three-dimensional model;
i) superimposing motion data expressing a predetermined motion by motion of the bone and the joint on the data of the stationary three-dimensional model, and moving the point based on the motion data and the weight value;
The method for creating a three-dimensional model according to claim 1, wherein:
b) 前記撮像データと前記深度データの各組について複数の点の空間座標を生成する点座標生成部と、
c) それぞれが前記複数の点のうち同一平面上に位置する所定個数の点を結ぶことにより作成される、複数のポリゴンの組み合わせからなる部分三次元ポリゴンモデルを作成する部分三次元ポリゴンモデル作成部と、
d) 各部分三次元ポリゴンモデルを構成する複数の点の空間座標を、対応する距離画像センサと前記被写体の位置関係に基づき予め求められた座標変換によって1つの共通空間座標系に対応する空間座標に変換し、複数の前記部分三次元ポリゴンモデルを1つに統合した全体三次元ポリゴンモデルを作成する全体三次元ポリゴンモデル作成部と、
e) 前記全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除するポリゴン集合体削除部と、
を備えることを特徴とする三次元モデル作成装置。 a) Imaging data that is two-dimensional image data of a subject acquired by each of four or more distance image sensors arranged so as to surround the subject, and a two-dimensional distribution of distances from the distance image sensor to the subject A data receiving unit for receiving input of depth data representing
b) a point coordinate generation unit that generates spatial coordinates of a plurality of points for each set of the imaging data and the depth data;
c) A partial 3D polygon model creation unit for creating a partial 3D polygon model made up of a combination of a plurality of polygons, each created by connecting a predetermined number of points located on the same plane among the plurality of points When,
d) Spatial coordinates corresponding to one common spatial coordinate system obtained by converting the spatial coordinates of a plurality of points constituting each partial three-dimensional polygon model based on the positional relationship between the corresponding distance image sensor and the subject. An overall 3D polygon model creation unit that creates an overall 3D polygon model in which a plurality of the partial 3D polygon models are integrated into one,
e) In the overall three-dimensional polygon model, a polygon aggregate deletion unit that deletes a polygon aggregate composed of a predetermined number of polygons or less, and
A three-dimensional model creation device comprising:
b) 使用者による所定の入力操作に応じて、前記4台以上の距離画像センサのそれぞれにより、前記被写体の撮像データと深度データを取得するデータ取得部と、
c) 前記4台以上の距離画像センサのそれぞれにより取得した、前記撮像データと前記深度データの各組について複数の点の空間座標を生成する頂点座標生成部と、
d) 前記4台以上の距離画像センサのそれぞれについて、それぞれが前記複数の点のうち同一平面上に位置する所定個数の点を結ぶことにより作成される、複数のポリゴンの組み合わせからなる部分三次元ポリゴンモデルを作成する部分三次元ポリゴンモデル作成部と、
e) 各部分三次元ポリゴンモデルを構成する複数の点の空間座標を、対応する距離画像センサと前記被写体の位置関係に基づき予め求められた座標変換によって1つの共通空間座標系に対応する空間座標に変換し、複数の前記部分三次元ポリゴンモデルを1つに統合した全体三次元ポリゴンモデルを作成する全体三次元ポリゴンモデル作成部と、
f) 前記全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除するポリゴン集合体削除部と、
を備えることを特徴とする三次元モデルの作成システム。 a) Acquire imaging data that is arranged so as to surround a predetermined subject position, each of which is two-dimensional image data of the subject, and depth data representing a two-dimensional distribution of the distance from the distance image sensor to the subject. 4 or more range image sensors that are possible,
b) a data acquisition unit for acquiring imaging data and depth data of the subject by each of the four or more distance image sensors in accordance with a predetermined input operation by a user;
c) a vertex coordinate generation unit that generates spatial coordinates of a plurality of points for each set of the imaging data and the depth data acquired by each of the four or more distance image sensors;
d) For each of the four or more distance image sensors, a partial three-dimensional combination composed of a combination of a plurality of polygons created by connecting a predetermined number of points located on the same plane among the plurality of points. A partial 3D polygon model creation unit for creating a polygon model;
e) Spatial coordinates corresponding to one common space coordinate system by converting the spatial coordinates of a plurality of points constituting each partial three-dimensional polygon model into coordinates based on the positional relationship between the corresponding distance image sensor and the subject. An overall 3D polygon model creation unit that creates an overall 3D polygon model in which a plurality of the partial 3D polygon models are integrated into one,
f) In the overall three-dimensional polygon model, a polygon aggregate deleting unit that deletes a polygon aggregate composed of a predetermined number of polygons or less, and
A system for creating a three-dimensional model, comprising:
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016035115 | 2016-02-26 | ||
JP2016035115 | 2016-02-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017157208A JP2017157208A (en) | 2017-09-07 |
JP6348623B2 true JP6348623B2 (en) | 2018-06-27 |
Family
ID=59809965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017028809A Active JP6348623B2 (en) | 2016-02-26 | 2017-02-20 | 3D model creation method, 3D model creation device, 3D model creation system, and 3D model creation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6348623B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102005492B1 (en) * | 2017-10-31 | 2019-07-30 | 에스케이텔레콤 주식회사 | Apparatus and method for simplification of 3d mesh data |
JP7117914B2 (en) | 2018-06-29 | 2022-08-15 | キヤノン株式会社 | Image processing device, image processing method, and program |
JP2020010146A (en) | 2018-07-05 | 2020-01-16 | キヤノン株式会社 | Image processing system, image processing method, and program |
JP2020067393A (en) * | 2018-10-25 | 2020-04-30 | 株式会社Vrc | Three-dimensional modeling data generation device |
CN109685891B (en) * | 2018-12-28 | 2023-09-01 | 鸿视线科技(北京)有限公司 | Building three-dimensional modeling and virtual scene generation method and system based on depth image |
CN113112608A (en) * | 2021-04-20 | 2021-07-13 | 厦门汇利伟业科技有限公司 | Method for automatically establishing three-dimensional model from object graph |
CN116188714B (en) * | 2023-04-27 | 2023-07-21 | 山东翰林科技有限公司 | Geospatial coordinate processing method based on illusion engine |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3658038B2 (en) * | 1995-04-20 | 2005-06-08 | キヤノン株式会社 | 3D shape data integration method and apparatus, and 3D image processing method |
JPH10149445A (en) * | 1996-11-19 | 1998-06-02 | Image Joho Kagaku Kenkyusho | Device for visualizing physical operation analysis |
JP2006064453A (en) * | 2004-08-25 | 2006-03-09 | Fuji Xerox Co Ltd | 3-dimensional geometry input device and method |
JP5120926B2 (en) * | 2007-07-27 | 2013-01-16 | 有限会社テクノドリーム二十一 | Image processing apparatus, image processing method, and program |
JP6207210B2 (en) * | 2013-04-17 | 2017-10-04 | キヤノン株式会社 | Information processing apparatus and method |
JP3195609U (en) * | 2014-11-10 | 2015-01-29 | 株式会社イノベ−ション・アイ | 3D model creation device |
-
2017
- 2017-02-20 JP JP2017028809A patent/JP6348623B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017157208A (en) | 2017-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6348623B2 (en) | 3D model creation method, 3D model creation device, 3D model creation system, and 3D model creation program | |
US10109113B2 (en) | Pattern and method of virtual reality system based on mobile devices | |
JP6329343B2 (en) | Image processing system, image processing apparatus, image processing program, and image processing method | |
JP4804256B2 (en) | Information processing method | |
JP7349793B2 (en) | Image processing device, image processing method, and program | |
JP4473754B2 (en) | Virtual fitting device | |
JP5966256B2 (en) | Image processing apparatus and method, program, and recording medium | |
WO2019123729A1 (en) | Image processing device, image processing method, and program | |
JP2002058045A (en) | System and method for entering real object into virtual three-dimensional space | |
JPWO2017094543A1 (en) | Information processing apparatus, information processing system, information processing apparatus control method, and parameter setting method | |
KR20180061274A (en) | Method and apparatus for adjusting virtual reality images | |
JP7073481B2 (en) | Image display system | |
WO2010038693A1 (en) | Information processing device, information processing method, program, and information storage medium | |
KR20220092998A (en) | Co-located pose estimation in a shared artificial reality environment | |
KR20170044318A (en) | Method for collaboration using head mounted display | |
JP2020065229A (en) | Video communication method, video communication device, and video communication program | |
JP2020071718A (en) | Information processing device, information processing method, and program | |
JP2022131777A (en) | Information processing device, system having the same, information processing method, and program | |
JP6775669B2 (en) | Information processing device | |
US20230164304A1 (en) | Communication terminal device, communication method, and software program | |
KR102287939B1 (en) | Apparatus and method for rendering 3dimensional image using video | |
JP5759439B2 (en) | Video communication system and video communication method | |
WO2018173205A1 (en) | Information processing system, method for controlling same, and program | |
JP7417827B2 (en) | Image editing method, image display method, image editing system, and image editing program | |
WO2021166751A1 (en) | Information-processing device, information-processing method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180522 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180531 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6348623 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |