JP6319804B2 - Projection image generation apparatus, projection image generation method, and projection image generation program - Google Patents
Projection image generation apparatus, projection image generation method, and projection image generation program Download PDFInfo
- Publication number
- JP6319804B2 JP6319804B2 JP2014189772A JP2014189772A JP6319804B2 JP 6319804 B2 JP6319804 B2 JP 6319804B2 JP 2014189772 A JP2014189772 A JP 2014189772A JP 2014189772 A JP2014189772 A JP 2014189772A JP 6319804 B2 JP6319804 B2 JP 6319804B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual space
- space
- information
- projection image
- image generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 18
- 239000011159 matrix material Substances 0.000 claims description 25
- 239000013598 vector Substances 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 8
- 239000003550 marker Substances 0.000 description 12
- 238000012545 processing Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本発明は、空間に配置された物体上に画像投影(プロジェクションマッピング)を行う投影画像生成装置、投影画像生成方法および投影画像生成プログラムに関する。 The present invention relates to a projection image generation apparatus, a projection image generation method, and a projection image generation program that perform image projection (projection mapping) on an object arranged in a space.
従来、固定の立体物に対しその形状に対応した画像の生成及び投影を行うことで、表面色の動的変化や空間的な演出を行うプロジェクションマッピングの技術がある(例えば非特許文献1)。 2. Description of the Related Art Conventionally, there is a projection mapping technique that performs dynamic change of surface color and spatial rendering by generating and projecting an image corresponding to the shape of a fixed three-dimensional object (for example, Non-Patent Document 1).
従来のプロジェクションマッピングは、固定の立体物を投影対象としており、位置姿勢の変化する動的な立体物に対してリアルタイムに追従して画像投影を行うことができない。 Conventional projection mapping uses a fixed three-dimensional object as a projection target, and cannot project an image following a dynamic three-dimensional object whose position and orientation changes in real time.
本発明は、この課題に鑑みてなされたものであり、可動する立体物に対応した動画あるいは静止画をリアルタイムに投影する投影画像生成装置、投影画像生成方法および投影画像生成プログラムを提供することを目的とする。 The present invention has been made in view of this problem, and provides a projection image generation apparatus, a projection image generation method, and a projection image generation program that project a moving image or a still image corresponding to a movable three-dimensional object in real time. Objective.
本発明の投影画像生成装置は、空間に配置される実空間オブジェクトに投影する投影用画像を生成する投影画像生成装置において、前記実空間オブジェクトに付与された位置検出素子の位置情報から前記空間の座標系である実空間座標の直交単位ベクトルを算出して、前記位置検出素子の前記位置情報と前記直交単位ベクトルと前記実空間座標との関係性を示すモデル行列を生成するモデル行列生成部と、前記モデル行列に、位置姿勢の変化に依存しない座標系を持つ仮想空間に配置される仮想空間オブジェクトの各頂点位置情報を乗じることで、前記実空間座標における前記仮想空間オブジェクトの各頂点位置情報を算出する頂点位置情報算出部と、前記空間における投影ボリュームと前記仮想空間における仮想空間ビューボリュームとを空間的に一致させるための仮想空間視点情報と前記各頂点位置情報とを用いて、前記仮想空間オブジェクトを前記実空間オブジェクトに投影する仮想空間像を生成する仮想空間像生成部とを具備し、前記仮想空間ビューボリュームは、前記空間にプロジェクターで投影したプロジェクター投影画面に、2つ以上の点画像を投影した前記プロジェクターの位置と前記点画像とを結ぶ直線上の2つの実空間座標から得られる2本以上の直線から求めたパラメータである視点位置情報と、視線方向情報と、頭上方向情報と、縦横画角情報と、で表されるものである。 The projection image generation apparatus of the present invention is a projection image generation apparatus that generates an image for projection to be projected onto a real space object arranged in a space, from the position information of a position detection element attached to the real space object. A model matrix generation unit that calculates an orthogonal unit vector of a real space coordinate that is a coordinate system, and generates a model matrix indicating a relationship between the position information of the position detection element, the orthogonal unit vector, and the real space coordinate; , Each vertex position information of the virtual space object in the real space coordinates by multiplying the model matrix by each vertex position information of the virtual space object arranged in the virtual space having the coordinate system independent of the change of the position and orientation A vertex position information calculation unit that calculates a projection volume in the space and a virtual space view volume in the virtual space. Wherein the virtual space viewpoint information for between to coincide with each vertex position information, the virtual space object; and a virtual space image generation unit configured to generate a virtual space image to be projected onto the real space object, The virtual space view volume is obtained from two real space coordinates on a straight line connecting the position of the projector that projects two or more point images onto the projector projection screen projected onto the space and the point image. and viewpoint data is a parameter determined from two or more straight lines, and the line-of-sight direction information, and the overhead direction information, and aspect angle information, in Ru der those represented.
また、本発明の投影画像生成方法は、投影画像生成装置が行う空間に配置される実空間オブジェクトに投影する投影用画像を生成する投影画像生成方法であって、前記実空間オブジェクトに付与された位置検出素子の位置情報から前記空間の座標系である実空間座標の直交単位ベクトルを算出して、前記位置検出素子の前記位置情報と前記直交単位ベクトルと前記実空間座標との関係性を示すモデル行列を生成するモデル行列生成ステップと、前記モデル行列に、位置姿勢の変化に依存しない座標系を持つ仮想空間に配置される仮想空間オブジェクトの各頂点位置情報を乗じることで、前記実空間座標における前記仮想空間オブジェクトの各頂点位置情報を算出する頂点位置情報算出ステップと、前記空間における投影ボリュームと前記仮想空間における仮想空間ビューボリュームとを空間的に一致させるための仮想空間視点情報と前記各頂点位置情報とを用いて、前記仮想空間オブジェクトを前記実空間オブジェクトに投影する仮想空間像を生成する仮想空間像生成ステップとを行い、前記仮想空間ビューボリュームは、前記空間にプロジェクターで投影したプロジェクター投影画面に、2つ以上の点画像を投影した前記プロジェクターの位置と前記点画像とを結ぶ直線上の2つの実空間座標から得られる2本以上の直線から求めたパラメータである視点位置情報と、視線方向情報と、頭上方向情報と、縦横画角情報と、で表されるものである。
The projection image generation method of the present invention is a projection image generation method for generating a projection image to be projected onto a real space object arranged in a space performed by the projection image generation device, and is provided to the real space object. An orthogonal unit vector of real space coordinates, which is a coordinate system of the space, is calculated from position information of the position detection element, and the relationship between the position information of the position detection element, the orthogonal unit vector, and the real space coordinates is shown. A model matrix generating step for generating a model matrix; and multiplying the model matrix by each vertex position information of a virtual space object arranged in a virtual space having a coordinate system independent of a change in position and orientation, A vertex position information calculating step of calculating each vertex position information of the virtual space object in the space; a projection volume in the space; A virtual space for generating a virtual space image for projecting the virtual space object onto the real space object using the virtual space viewpoint information for spatially matching the virtual space view volume between them and each vertex position information There line and an image generation step, the virtual space view volume, the projector projection screen projected by the projector in the space, on a straight line in which the positions of the two or more points the projector projecting the image connecting the said point image This is expressed by viewpoint position information, line-of-sight direction information, overhead direction information, and vertical and horizontal angle-of-view information, which are parameters obtained from two or more straight lines obtained from two real space coordinates .
また、本発明の投影画像生成プログラムは、上記の投影画像生成装置としてコンピュータを機能させるようにしたものである。 A projection image generation program according to the present invention causes a computer to function as the projection image generation apparatus.
本発明によれば、可動する立体物(実空間オブジェクト)に対応した動画あるいは静止画をリアルタイムに投影する画像情報を生成することができる。 According to the present invention, it is possible to generate image information that projects a moving image or a still image corresponding to a movable three-dimensional object (real space object) in real time.
以下、本発明の実施の形態について図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
〔投影画像生成装置の構成〕
まず、図1を参照して、本実施の形態の投影画像生成装置50の構成を説明する。投影画像生成装置50は、実空間配置状況再現部20と、仮想空間像生成部30とを具備する。実空間配置状況再現部20は、モデル行列生成部21と頂点位置情報算出部22とを備える。
[Configuration of Projection Image Generation Device]
First, with reference to FIG. 1, the structure of the projection
実空間配置状況再現部20は、仮想空間オブジェクトの形状情報14と、モーションキャプチャ装置15から取得される実空間オブジェクト13に付与された3点の位置検出素子の位置情報とを入力として、実空間座標系における仮想空間オブジェクトの頂点位置データを出力する。
The real space arrangement state reproduction unit 20 receives the
仮想空間像生成部30は、実空間配置状況再現部20が出力する仮想空間オブジェクトの頂点位置データと、前記空間における投影ボリュームと仮想空間における仮想空間ビューボリュームを空間的に一致させるための仮想空間視点情報17とを入力として、仮想空間オブジェクトを実空間オブジェクト13に投影するための仮想空間像を出力する。ここで仮想空間オブジェクトとは、実空間オブジェクト13の形状と符合する立体物のことである。なお、仮想空間オブジェクトの形状は、実空間オブジェクト13の相似形であってもよい。
The virtual space
仮想空間オブジェクトは、当該仮想空間オブジェクトの位置姿勢の変化に依存しないオブジェクト座標の上に配置される。よって、図1では仮想空間オブジェクトの表記を省略している。 The virtual space object is arranged on the object coordinates that do not depend on the change in the position and orientation of the virtual space object. Therefore, the notation of the virtual space object is omitted in FIG.
〔投影画像を表示して演出するための構成〕
また、投影画像生成装置50を用いて投影画像を表示して演出するためには、実空間オブジェクト13と、モーションキャプチャ装置15と、プロジェクター16とが必要である。モーションキャプチャ装置15は、現実の人や物体の動きをディジタル的に記録する装置である。
[Configuration for displaying and directing projected images]
Further, in order to display and produce a projected image using the projected
実空間オブジェクト13は、空間に配置されるオブジェクトの実体である。実空間オブジェクト13は、操作者11が手動で動かしてもよいし例えば自動的に回転等がなされてもよい。実空間オブジェクト13の位置姿勢は、リアルタイムに変化する。閲覧者12は、プロジェクター16によって実空間オブジェクト13の表面に投影される投影画像を、閲覧する者である。
The
〔投影画像生成装置に入力する情報〕
次に、投影画像生成装置50に外部から入力する情報である仮想空間オブジェクトの形状情報14と仮想空間視点情報17とについて説明する。
[Information to be input to the projection image generator]
Next, the virtual space
〔仮想空間オブジェクトの形状情報〕
仮想空間オブジェクトの形状情報14は、実空間オブジェクト13の形状と符合する仮想空間オブジェクトの形状情報である。実空間オブジェクト13の形状をメジャーなどを用いて人が計測してもよいし、既存の3Dスキャナ装置などを用いて自動的に計測してもよい。
[Shape information of virtual space object]
The virtual space
図2に示すように、立体物の位置姿勢の変化に依存しないオブジェクト座標系におけるX,Y,Zの位置データを、仮想空間オブジェクトの形状情報とする。図2に示す例は、実空間オブジェクト13の形状を例えば立方体として、その一辺を100mmとした場合の形状情報である。以下においてオブジェクト座標を大文字X,Y,Zで表記する。
As shown in FIG. 2, the X, Y, and Z position data in the object coordinate system that does not depend on the change in the position and orientation of the three-dimensional object is used as the shape information of the virtual space object. The example shown in FIG. 2 is shape information when the shape of the
仮想空間オブジェクトの形状情報は、立体物の頂点位置である。立方体の場合は、頂点1〜頂点8の8個の座標情報である。頂点1の座標情報は、X=100,Y=100,Z=100である。Z軸上に位置する頂点8の座標情報は、X=0,Y=0,Z=100である。また、球体の場合は、球面を任意の数で分割した面を用意し、各面の頂点位置の座標情報が球体の形状情報となる。
The shape information of the virtual space object is the vertex position of the three-dimensional object. In the case of a cube, it is eight coordinate information of
このように仮想空間オブジェクトの形状情報14は、実空間オブジェクト13の形状と符合する仮想空間オブジェクトのオブジェクト座標系における立体物の頂点位置の座標情報であり、仮想空間オブジェクトに対応させて一度計測しておけばよいものである。
As described above, the
〔仮想空間視点情報〕
仮想空間視点情報17は、投影する空間(実空間)における投影ボリュームと仮想空間における仮想空間ビューボリュームを空間的に一致させるための情報である。図3を参照して投影ボリュームと仮想空間ビューボリュームについて説明する。
[Virtual space perspective information]
The virtual
図3(a)は、プロジェクター16が画像を投影する空間の三次元的な「投影領域」を、プロジェクター16を頂点とする四角錐で模式的に示す。この三次元的な「投影領域」を投影ボリュームと称する。
FIG. 3A schematically shows a three-dimensional “projection region” of a space in which the
図3(b)は、仮想空間内での人の目(視点)からの「視野の領域」を、視点を頂点とする四角錐で模式的に示す。この三次元的な「視野の範囲」を仮想空間ビューボリュームと称する。 FIG. 3B schematically shows the “field of view” from the human eye (viewpoint) in the virtual space as a quadrangular pyramid with the viewpoint as the apex. This three-dimensional “field of view” is called a virtual space view volume.
投影する空間に、仮想空間の画像を投影するには、投影ボリュームと仮想空間ビューボリュームを空間的に一致させる必要がある。空間的に一致させるためには、プロジェクター16の「位置」、「投影方向」、「姿勢(頭上方向)」、及び「投影の画角」の情報を、仮想空間の視点の「位置」、「視線方向」、「姿勢(頭上方向)」、及び「視野の画角」へと適用する。
In order to project an image of the virtual space onto the space to be projected, it is necessary to spatially match the projection volume and the virtual space view volume. In order to make them coincide spatially, information on the “position”, “projection direction”, “posture (overhead direction)” and “projection angle of view” of the
投影ボリュームの各パラメータの導出方法を、図4を参照して説明する。各パラメータの導出は、モーションキャプチャ装置15との連携によって行う。まず、予め中心位置及び中央右端に点が描画された画像をプロジェクター16から投影し、位置検出素子(以下マーカ)を投影点に重なるように移動させて中心軸上の2点A1,A2、及び中央右側の軸上の2点B1,B2の座標x,y,zを取得する。以下において実空間座標を小文字x,y,zで表記する。
A method for deriving each parameter of the projection volume will be described with reference to FIG. Each parameter is derived in cooperation with the
具体的には、人がマーカを把持し、プロジェクターの投影画面の中央位置に投影された点画像に重なるようにマーカを人が適当に2回停止させて2か所(A1,A2)の3次元位置をモーションキャプチャ装置15で測定する。そして更に、プロジェクター16の投影画面の右位置に投影された点画像に重なるようにマーカを適当に2回停止させて2か所(B1,B2)の3次元位置をモーションキャプチャ装置15で測定する。
Specifically, the person grasps the marker, and the person appropriately stops the marker twice twice so that it overlaps the point image projected at the center position of the projection screen of the projector. The dimension position is measured by the
そして、中心軸上の2点(A1,A2)から生成される直線Aと、中心右端の軸上の2点から生成される直線Bの交点が「位置」パラメータ(視点位置情報)として算出される。「投影方向」パラメータ(視線方向情報)には直線Aを適用する。「姿勢(頭上方向)」パラメータ(頭上方向情報)は直線Aと直線Bの外積によって算出する。縦横の「画角」パラメータ(縦横画角情報)は用いるプロジェクター16の既知情報を用いる。
Then, the intersection of the straight line A generated from the two points (A1, A2) on the central axis and the straight line B generated from the two points on the central right end axis is calculated as a “position” parameter (viewpoint position information). The The straight line A is applied to the “projection direction” parameter (gaze direction information). The “posture (overhead direction)” parameter (overhead direction information) is calculated by the outer product of the straight line A and the straight line B. For the vertical and horizontal “view angle” parameters (vertical and horizontal view angle information), known information of the
この仮想空間視点情報17は、投影する空間とプロジェクター16とが決まれば一度計測しておけばよいものである。なお、点画像を中心位置と中央右側に投影した例で説明を行ったが、点画像は他の部分に投影するようにしてもよい。
The virtual
例えば、点画像を中央左端位置と中央右端の位置に投影し、これらの2つの点画像から直線A′と直線Bを各々求め、これら両直線中間線を直線A(つまり中心線)とすれば、上記の同じ処理が可能である。また、3つ以上の点画像を描画して平均化等することで精度を高めることも可能である。 For example, if a point image is projected at the center left end position and the center right end position, straight lines A ′ and B are obtained from these two point images, and the straight line A (that is, the center line) is set as the straight line between these two straight lines The same processing as described above is possible. It is also possible to improve accuracy by drawing three or more point images and averaging them.
〔投影画像生成装置の動作〕
図5に、投影画像生成装置50の動作フローを示す。図1と図5を参照して投影画像生成装置50の動作を説明する。
[Operation of Projected Image Generation Device]
FIG. 5 shows an operation flow of the projection
ステップS1の仮想空間オブジェクトの形状構築では、仮想空間オブジェクトの形状情報14が生成される。その生成方法は上記の通りである。仮想空間オブジェクトの形状情報14は、投影画像生成装置50が動作を開始するまでに用意する。
In the virtual space object shape construction in step S1, the virtual space
ステップS2の仮想空間視点構築では、仮想空間視点情報17が生成される。その生成方法は上記の通りである。仮想空間視点情報17は、投影画像生成装置50が動作を開始するまでに用意する。
In the virtual space viewpoint construction in step S2, virtual
投影画像生成装置50が動作を開始すると、モーションキャプチャ装置15は実空間オブジェクト13の3点基準位置情報を取得する(ステップS3)。3点基準位置情報は、実空間オブジェクト13にL字状に3点のマーカを付与して、モーションキャプチャ装置15によってそのマーカの位置から取得する。
When the projection
図6(a)に、実空間オブジェクト13とマーカを示す。例えば立方体である実空間オブジェクト13の頂点1にマーカP2と、マーカP2と同一平面上の頂点4の方向にマーカP1と、頂点2の方向にマーカP3とを配置する。
FIG. 6A shows the
実空間配置状況再現部20のモデル行列生成部21は、モーションキャプチャ装置15で取得したマーカP1,P2,P3の位置情報から直交する3つの直交単位ベクトルv1,v2,v3を算出する(図6(b))。直交単位ベクトルv1はv1=P1−P2、直交単位ベクトルv2はv2=P3−P2、直交単位ベクトルv3はv1とv2の外積v1×v2で求めることができる。
The model
そして、モデル行列生成部21は、一つの頂点に配置したマーカP2の座標値と直交単位ベクトルv1,v2,v3とからモデル行列M(図6(c))を生成する(ステップS40)。モデル行列Mは、実空間オブジェクト13の一つの頂点P2と直交単位ベクトルv1,v2,v3と実空間座標値との関係性を示したものである。なお、この例では頂点P2を基準位置情報としたが、他の頂点を基準位置情報としてもよい。
And the model matrix production |
このモデル行列Mを、仮想空間オブジェクトの形状情報14の各頂点(頂点1〜頂点8)の座標情報から求めた各頂点位置ベクトル{X,Y,Z,1}と掛け合わせることで、実空間座標系における仮想空間オブジェクトの各頂点位置{x′,y′,z′,1}を算出する(式(1))。
By multiplying the model matrix M by each vertex position vector {X, Y, Z, 1} obtained from the coordinate information of each vertex (
図7に、頂点位置情報算出部22(ステップS41)で行う処理を模式的に示す。図7(a)は上記の図2と同じ図である。図7(a)において、仮想空間オブジェクトの形状情報14の各頂点(頂点1〜頂点8)の座標情報を求める。上記のように、仮想空間オブジェクトの形状情報14は予め求めておくものである(ステップS1)。
FIG. 7 schematically shows processing performed by the vertex position information calculation unit 22 (step S41). FIG. 7A is the same view as FIG. In FIG. 7A, coordinate information of each vertex (
仮想空間オブジェクトの形状情報14の各頂点の座標情報から求めた各頂点位置ベクトル{X,Y,Z,1}と、モデル行列Mを掛け合わせることで実空間オブジェクト13と同位置姿勢の仮想空間オブジェクトの立体形状を、実空間内に配置することができる(図7(b)。
By multiplying each vertex position vector {X, Y, Z, 1} obtained from the coordinate information of each vertex of the
仮想空間像生成部30は、実空間配置状況再現部20が出力する仮想空間オブジェクトの頂点位置データを、仮想空間視点情報17を用いてレンダリングすることで投影用の仮想空間像を生成する(ステップS5)。仮想空間像をレンダリングする技術は、例えば参考文献1(コンピュータグラフィックス、監修:コンピュータグラフィックス編集委員会、発行所:CG-ARTS協会、pp32-40)に記載されている。
The virtual space
仮想空間像生成部30が生成した仮想空間像をプロジェクター16から実空間オブジェクト13に投影する(ステップS6)。その結果、実空間オブジェクト13に仮想空間オブジェクトの立体形状の像がリアルタイムに重畳する空間演出が可能となる(ステップS7)。つまり、例えば立方体の実空間オブジェクト13がy軸(図7(b)参照)を中心に回転していると仮定すると、次々に現れる複数の投影面(立方体の表面)に仮想空間像を投影することができる。仮想空間像としては、例えば投影面ごとに対応する異なる色などが考えられる。
The virtual space image generated by the virtual space
なお、仮想空間像生成部30が生成した仮想空間像は、メモリに記録するようにしてもよい。実空間オブジェクト13の位置姿勢の変化が周期的であれば、その周期に同期させて記録した仮想空間像を読み出すことで、上記と同じ空間演出が可能である。
Note that the virtual space image generated by the virtual space
ステップ3の実空間オブジェクト13の3点基準位置情報を取得するステップから、ステップS7のプロジェクター16から投影された仮想空間オブジェクトを閲覧するステップの各ステップは繰り返される。その繰り返しの速度は例えば60f/s(frame/second)程度の速度である。
From the step of acquiring the three-point reference position information of the
以上説明したように本実施の形態によれば、可動する立体物(実空間オブジェクト13)に対応した動画あるいは静止画をリアルタイムに投影する画像情報(仮想空間像)を生成することができる。なお、プロジェクター16の照射範囲に存在する実空間オブジェクトの数は複数個あっても構わない。また、実空間オブジェクト13の形状を立方体を例に説明したが、この形状に限られない。例えば、実空間オブジェクト13の形状は直方体であってもよい。また、球体であってもよいのは上記の通りである。このように本発明は、上記した実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。
As described above, according to the present embodiment, it is possible to generate image information (virtual space image) that projects a moving image or a still image corresponding to a movable three-dimensional object (real space object 13) in real time. Note that there may be a plurality of real space objects present in the irradiation range of the
上記装置における処理部をコンピュータによって実現する場合、各処理部が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記装置における処理部がコンピュータ上で実現される。 When the processing unit in the above apparatus is realized by a computer, the processing content of the function that each processing unit should have is described by a program. Then, by executing this program on a computer, the processing unit in the above apparatus is realized on the computer.
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記録装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としても良い。 The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Further, the program may be distributed by storing the program in a recording device of the server computer and transferring the program from the server computer to another computer via a network.
11:操作者
12:閲覧者
13:実空間オブジェクト
14:仮想空間オブジェクトの形状情報
15:モーションキャプチャ装置
16:プロジェクター
17:仮想空間視点情報
20:実空間配置状況再現部
21:モデル行列生成部
22:頂点位置情報算出部
30:仮想空間像生成部
50:投影画像生成装置
11: Operator 12: Viewer 13: Real space object 14: Virtual space object shape information 15: Motion capture device 16: Projector 17: Virtual space viewpoint information 20: Real space arrangement state reproduction unit 21: Model matrix generation unit 22 : Vertex position information calculation unit 30: virtual aerial image generation unit 50: projection image generation device
Claims (5)
前記実空間オブジェクトに付与された位置検出素子の位置情報から前記空間の座標系である実空間座標の直交単位ベクトルを算出して、前記位置検出素子の前記位置情報と前記直交単位ベクトルと前記実空間座標との関係性を示すモデル行列を生成するモデル行列生成部と、
前記モデル行列に、位置姿勢の変化に依存しない座標系を持つ仮想空間に配置される仮想空間オブジェクトの各頂点位置情報を乗じることで、前記実空間座標における前記仮想空間オブジェクトの各頂点位置情報を算出する頂点位置情報算出部と、
前記空間における投影ボリュームと前記仮想空間における仮想空間ビューボリュームとを空間的に一致させるための仮想空間視点情報と前記各頂点位置情報とを用いて、前記仮想空間オブジェクトを前記実空間オブジェクトに投影する仮想空間像を生成する仮想空間像生成部と
を具備し、
前記仮想空間ビューボリュームは、
前記空間にプロジェクターで投影したプロジェクター投影画面に、2つ以上の点画像を投影した前記プロジェクターの位置と前記点画像とを結ぶ直線上の2つの実空間座標から得られる2本以上の直線から求めたパラメータである視点位置情報と、視線方向情報と、頭上方向情報と、縦横画角情報と、で表されるものであることを特徴とする投影画像生成装置。 In a projection image generation apparatus that generates a projection image to be projected onto a real space object arranged in space,
An orthogonal unit vector of real space coordinates, which is a coordinate system of the space, is calculated from position information of the position detection element assigned to the real space object, and the position information of the position detection element, the orthogonal unit vector, and the real unit are calculated. A model matrix generation unit that generates a model matrix indicating a relationship with spatial coordinates;
By multiplying the model matrix by each vertex position information of the virtual space object arranged in the virtual space having the coordinate system independent of the change of the position and orientation, each vertex position information of the virtual space object in the real space coordinates is obtained. A vertex position information calculation unit to calculate,
Projecting the virtual space object onto the real space object using the virtual space viewpoint information for spatially matching the projected volume in the space and the virtual space view volume in the virtual space and the vertex position information A virtual aerial image generation unit for generating a virtual aerial image ,
The virtual space view volume is
It is obtained from two or more straight lines obtained from two real space coordinates on a straight line connecting the position of the projector that projected two or more point images on the projector projection screen projected onto the space and the point image. parameters and viewpoint data is a, and the line-of-sight direction information, and the overhead direction information, and aspect angle information, in the projection image generation apparatus according to claim der Rukoto those represented.
前記直交単位ベクトルは、前記実空間オブジェクトのある一つの頂点にL字型に付与した位置検出素子の3点の座標情報から算出されるベクトルであり、
前記モデル行列は、前記直交単位ベクトルを要素に含み、前記仮想空間オブジェクトのオブジェクト座標における各頂点位置情報を前記実空間座標の各頂点位置情報に座標変換する行列であることを特徴とする投影画像生成装置。 The projection image generating apparatus according to claim 1,
The orthogonal unit vector is a vector calculated from the coordinate information of the three points of the position detection element given in an L shape to one vertex of the real space object,
The model matrix is a projection image that includes the orthogonal unit vector as an element, and that converts each vertex position information in the object coordinates of the virtual space object into each vertex position information in the real space coordinates. Generator.
前記実空間オブジェクトに付与された位置検出素子の位置情報から前記空間の座標系である実空間座標の直交単位ベクトルを算出して、前記位置検出素子の前記位置情報と前記直交単位ベクトルと前記実空間座標との関係性を示すモデル行列を生成するモデル行列生成ステップと、
前記モデル行列に、位置姿勢の変化に依存しない座標系を持つ仮想空間に配置される仮想空間オブジェクトの各頂点位置情報を乗じることで、前記実空間座標における前記仮想空間オブジェクトの各頂点位置情報を算出する頂点位置情報算出ステップと、
前記空間における投影ボリュームと前記仮想空間における仮想空間ビューボリュームとを空間的に一致させるための仮想空間視点情報と前記各頂点位置情報とを用いて、前記仮想空間オブジェクトを前記実空間オブジェクトに投影する仮想空間像を生成する仮想空間像生成ステップと
を行い、
前記仮想空間ビューボリュームは、
前記空間にプロジェクターで投影したプロジェクター投影画面に、2つ以上の点画像を投影した前記プロジェクターの位置と前記点画像とを結ぶ直線上の2つの実空間座標から得られる2本以上の直線から求めたパラメータである視点位置情報と、視線方向情報と、頭上方向情報と、縦横画角情報と、で表されるものであることを特徴とする投影画像生成方法。 A projection image generation method for generating a projection image to be projected onto a real space object arranged in a space performed by a projection image generation apparatus,
An orthogonal unit vector of real space coordinates, which is a coordinate system of the space, is calculated from position information of the position detection element assigned to the real space object, and the position information of the position detection element, the orthogonal unit vector, and the real unit are calculated. A model matrix generation step for generating a model matrix indicating a relationship with spatial coordinates;
By multiplying the model matrix by each vertex position information of the virtual space object arranged in the virtual space having the coordinate system independent of the change of the position and orientation, each vertex position information of the virtual space object in the real space coordinates is obtained. Calculating vertex position information to be calculated;
Projecting the virtual space object onto the real space object using the virtual space viewpoint information for spatially matching the projected volume in the space and the virtual space view volume in the virtual space and the vertex position information There line and a virtual space image generation step of generating a virtual space image,
The virtual space view volume is
It is obtained from two or more straight lines obtained from two real space coordinates on a straight line connecting the position of the projector that projected two or more point images on the projector projection screen projected onto the space and the point image. A projection image generation method, characterized in that it is represented by viewpoint position information, line-of-sight direction information, overhead direction information, and vertical and horizontal angle-of-view information as parameters .
前記直交単位ベクトルは、前記実空間オブジェクトのある一つの頂点にL字型に付与した位置検出素子の3点の座標情報から算出されたベクトルであり、
前記モデル行列は、前記直交単位ベクトルを要素に含み、前記仮想空間オブジェクトのオブジェクト座標における各頂点位置情報を前記実空間座標の各頂点位置情報に座標変換する行列であることを特徴とする投影画像生成方法。 In the projection image generation method according to claim 3 ,
The orthogonal unit vector is a vector calculated from the coordinate information of the three points of the position detection element given in an L shape to one vertex of the real space object,
The model matrix is a projection image that includes the orthogonal unit vector as an element, and that converts each vertex position information in the object coordinates of the virtual space object into each vertex position information in the real space coordinates. Generation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014189772A JP6319804B2 (en) | 2014-09-18 | 2014-09-18 | Projection image generation apparatus, projection image generation method, and projection image generation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014189772A JP6319804B2 (en) | 2014-09-18 | 2014-09-18 | Projection image generation apparatus, projection image generation method, and projection image generation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016063394A JP2016063394A (en) | 2016-04-25 |
JP6319804B2 true JP6319804B2 (en) | 2018-05-09 |
Family
ID=55798321
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014189772A Active JP6319804B2 (en) | 2014-09-18 | 2014-09-18 | Projection image generation apparatus, projection image generation method, and projection image generation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6319804B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6307426B2 (en) * | 2014-10-14 | 2018-04-04 | 株式会社東通 | Image projection method and image projection system |
JP7156937B2 (en) * | 2018-12-27 | 2022-10-19 | フォルシアクラリオン・エレクトロニクス株式会社 | Image processing device and image processing method |
JP7270477B2 (en) * | 2019-06-17 | 2023-05-10 | 株式会社ミツトヨ | measuring device |
WO2022080260A1 (en) * | 2020-10-13 | 2022-04-21 | パナソニックIpマネジメント株式会社 | Installation information acquisition method, correction method, program, and installation information acquisition system |
CN114520898B (en) * | 2020-11-19 | 2023-09-01 | 成都极米科技股份有限公司 | Projection device control method and device, projection device and storage medium |
JP7196899B2 (en) | 2020-12-10 | 2022-12-27 | セイコーエプソン株式会社 | Projection method, projection system, and program |
WO2024166635A1 (en) * | 2023-02-06 | 2024-08-15 | パナソニックIpマネジメント株式会社 | Virtual space generating method, and information processing device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6554431B1 (en) * | 1999-06-10 | 2003-04-29 | Sony Corporation | Method and apparatus for image projection, and apparatus controlling image projection |
JP2001320652A (en) * | 2000-05-11 | 2001-11-16 | Nec Corp | Projector |
JP2011254411A (en) * | 2010-06-04 | 2011-12-15 | Hokkaido Univ | Video projection system and video projection program |
-
2014
- 2014-09-18 JP JP2014189772A patent/JP6319804B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016063394A (en) | 2016-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6319804B2 (en) | Projection image generation apparatus, projection image generation method, and projection image generation program | |
JP6340017B2 (en) | An imaging system that synthesizes a subject and a three-dimensional virtual space in real time | |
CN110956695B (en) | Information processing apparatus, information processing method, and storage medium | |
JP5777786B1 (en) | Information processing apparatus, information processing method, and program | |
JP2019534510A5 (en) | ||
JP5872923B2 (en) | AR image processing apparatus and method | |
US12094139B2 (en) | Systems and methods for enhanced depth determination using projection spots | |
CN108629830A (en) | A kind of three-dimensional environment method for information display and equipment | |
Jia et al. | 3D image reconstruction and human body tracking using stereo vision and Kinect technology | |
JP2006302034A (en) | Image processing method and image processor | |
JP2018133063A5 (en) | ||
Petkov et al. | Interactive visibility retargeting in vr using conformal visualization | |
JP2014106642A (en) | Ar system using optical see-through type hmd | |
US10902554B2 (en) | Method and system for providing at least a portion of content having six degrees of freedom motion | |
JP6581348B2 (en) | Information processing apparatus, information processing method, and program | |
JP2019133310A (en) | Image processing system and image processing program and image processing method | |
CN115311133A (en) | Image processing method and device, electronic equipment and storage medium | |
JP2002056407A (en) | Image generation system | |
JP6436872B2 (en) | Information processing apparatus, information processing method, and program | |
JP7465133B2 (en) | Information processing device and information processing method | |
JP6429240B2 (en) | Shape detection apparatus, shape detection method, and program | |
US20220044351A1 (en) | Method and system for providing at least a portion of content having six degrees of freedom motion | |
JP2016038632A (en) | Image processing apparatus and image processing method | |
JP6660159B2 (en) | Information processing apparatus, control method for information processing apparatus, and program | |
JP2023080688A (en) | Image forming method, image forming program, image forming device, and image forming system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160803 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20160803 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180327 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6319804 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |