JP2009025918A - Image processor and image processing method - Google Patents
Image processor and image processing method Download PDFInfo
- Publication number
- JP2009025918A JP2009025918A JP2007186324A JP2007186324A JP2009025918A JP 2009025918 A JP2009025918 A JP 2009025918A JP 2007186324 A JP2007186324 A JP 2007186324A JP 2007186324 A JP2007186324 A JP 2007186324A JP 2009025918 A JP2009025918 A JP 2009025918A
- Authority
- JP
- Japan
- Prior art keywords
- image
- orientation
- virtual space
- acquisition
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Generation (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、複合現実感を提供するための技術に関するものである。 The present invention relates to a technique for providing mixed reality.
近年、現実世界と仮想世界とを違和感なく自然に結合する複合現実感(MR:Mixed Reality)の技術を応用した装置(複合現実感装置)が盛んに提案されている。これらの複合現実感装置は、次のようにして複合現実感を、本装置の使用者に提示している。即ち、カメラなどの撮像装置によって撮影した現実世界の画像に対し、コンピュータグラフィックス(CG:Computer Graphics)で描画した仮想世界の画像を合成する。そして係る合成による合成画像を、ヘッドマウントディスプレイ(HMD:Head-Mounted Display)等の表示装置に表示する。 2. Description of the Related Art In recent years, devices (mixed reality devices) that apply a mixed reality (MR) technology that naturally couples the real world and the virtual world naturally are not proposed. These mixed reality devices present mixed reality to the user of the device as follows. That is, a virtual world image drawn by computer graphics (CG) is synthesized with a real world image taken by an imaging device such as a camera. Then, the synthesized image by the synthesis is displayed on a display device such as a head-mounted display (HMD).
これらの複合現実感装置は、複合現実感を高めるために、本装置の使用者の視点位置・姿勢をリアルタイムで取得し、現実世界の画像の変化に追従させて仮想世界の画像を生成し、使用者に対してHMDのような表示装置にリアルタイムに表示する必要がある。複合現実感装置では、センサ装置によって計測した使用者の視点位置・姿勢を仮想世界での仮想の視点位置・姿勢として設定し、この設定に基づいて仮想世界の画像をCGにより描画し、現実世界の画像と合成する。 In order to enhance the mixed reality, these mixed reality devices acquire the viewpoint position and orientation of the user of this device in real time, follow the change of the real world image, generate the virtual world image, It is necessary to display in real time on a display device such as an HMD for the user. In the mixed reality device, the viewpoint position / orientation of the user measured by the sensor device is set as a virtual viewpoint position / orientation in the virtual world, and based on this setting, an image of the virtual world is drawn by CG, and the real world Composite with the image.
また、HMDは、複合現実感の提示のため、複合現実感装置の使用者の視野には、HMDによる表示があり、且つ係る表示内にはCGを描画する領域が含まれている。 In addition, since the HMD presents mixed reality, the visual field of the user of the mixed reality device includes display by the HMD, and the display includes a region for drawing CG.
これらの技術により、複合現実感装置の使用者は、あたかも現実世界の中に仮想の物体が存在しているかのような画像を観察することができる。 With these technologies, the user of the mixed reality apparatus can observe an image as if a virtual object exists in the real world.
このような技術を用いれば、例えば、現実物体に所望の仮想物体を重畳表示させ、使用者は係る現実物体を把持して操作することで、あたかも係る仮想物体が示すものを操作しているような感覚を、使用者に対して与えることができる(特許文献1)。
しかし、使用者が、仮想物体を重畳させた現実物体を掴もうとする場合に、自身の手と現実物体との距離感がわかりにくいという問題がある。また、使用者自身の体の一部がこの仮想物体によって隠蔽されてしまうという可能性もある。 However, when a user tries to grasp a real object on which a virtual object is superimposed, there is a problem that it is difficult to understand the distance between his / her hand and the real object. In addition, there is a possibility that a part of the user's own body is concealed by the virtual object.
このように、使用者が、仮想物体を重畳させた現実物体を掴もうとする行為は、仮想物体を重畳させていない現実物体を掴もうとする行為よりも困難なものとなっていた。 As described above, it is more difficult for the user to grab the real object on which the virtual object is superimposed than to act on the real object on which the virtual object is not superimposed.
本発明は以上の問題に鑑みてなされたものであり、仮想物体を重畳させた現実物体に対するユーザ操作をより容易にするための技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object thereof is to provide a technique for facilitating a user operation on a real object on which a virtual object is superimposed.
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。 In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.
即ち、撮像装置と表示装置とを有する頭部装着型表示装置を頭部に装着しているユーザの体の部位の位置を取得する第1の取得手段と、
前記撮像装置の位置姿勢を取得する第2の取得手段と、
前記撮像装置による撮像画像を取得する第3の取得手段と、
前記部位による操作対象となる物体の位置姿勢を取得する第4の取得手段と、
前記第4の取得手段が取得した位置姿勢を有する仮想物体を、前記第2の取得手段が取得した位置姿勢から見た場合の画像を仮想空間画像として生成する生成手段と、
前記生成手段が生成した仮想空間画像を、前記第3の取得手段が取得した撮像画像上に重畳させて前記表示装置に対して出力する出力手段とを備え、
前記生成手段は、
前記第1の取得手段が取得した位置と、前記第4の取得手段が取得した位置と、の間の距離に応じて、前記仮想空間画像の透明度を制御する
ことを特徴とする。
That is, a first acquisition unit that acquires a position of a body part of a user wearing a head-mounted display device having an imaging device and a display device on the head;
Second acquisition means for acquiring the position and orientation of the imaging device;
Third acquisition means for acquiring a captured image by the imaging device;
Fourth acquisition means for acquiring a position and orientation of an object to be operated by the part;
Generating means for generating, as a virtual space image, an image when the virtual object having the position and orientation acquired by the fourth acquisition means is viewed from the position and orientation acquired by the second acquisition means;
An output unit that superimposes the virtual space image generated by the generation unit on the captured image acquired by the third acquisition unit and outputs the image to the display device;
The generating means includes
The transparency of the virtual space image is controlled according to the distance between the position acquired by the first acquisition unit and the position acquired by the fourth acquisition unit.
本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。 In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.
即ち、撮像装置と表示装置とを有する頭部装着型表示装置を頭部に装着しているユーザの体の部位の位置を取得する第1の取得工程と、
前記撮像装置の位置姿勢を取得する第2の取得工程と、
前記撮像装置による撮像画像を取得する第3の取得工程と、
前記部位による操作対象となる物体の位置姿勢を取得する第4の取得工程と、
前記第4の取得工程で取得した位置姿勢を有する仮想物体を、前記第2の取得工程で取得した位置姿勢から見た場合の画像を仮想空間画像として生成する生成工程と、
前記生成工程で生成した仮想空間画像を、前記第3の取得工程で取得した撮像画像上に重畳させて前記表示装置に対して出力する出力工程とを備え、
前記生成工程では、
前記第1の取得工程で取得した位置と、前記第4の取得工程で取得した位置と、の間の距離に応じて、前記仮想空間画像の透明度を制御する
ことを特徴とする。
That is, a first acquisition step of acquiring a position of a body part of a user wearing a head-mounted display device having an imaging device and a display device on the head;
A second acquisition step of acquiring the position and orientation of the imaging device;
A third acquisition step of acquiring a captured image by the imaging device;
A fourth acquisition step of acquiring the position and orientation of the object to be operated by the part;
A generation step of generating an image when the virtual object having the position and orientation acquired in the fourth acquisition step is viewed from the position and orientation acquired in the second acquisition step as a virtual space image;
An output step of superimposing the virtual space image generated in the generation step on the captured image acquired in the third acquisition step and outputting it to the display device;
In the generating step,
The transparency of the virtual space image is controlled according to the distance between the position acquired in the first acquisition step and the position acquired in the fourth acquisition step.
本発明の構成によれば、仮想物体を重畳させた現実物体に対するユーザ操作をより容易にすることができる。 According to the configuration of the present invention, a user operation on a real object on which a virtual object is superimposed can be made easier.
以下、添付図面を参照し、本発明の好適な実施形態について詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
なお、以下説明する各実施形態の骨子は次の通りである。 The outline of each embodiment described below is as follows.
即ち、撮像装置と表示装置とを有する頭部装着型表示装置を頭部に装着しているユーザの体の部位の位置を取得する(第1の取得)。また、撮像装置の位置姿勢を取得する(第2の取得)。また、撮像装置による撮像画像を取得する(第3の取得)。また、上記部位による操作対象となる物体の位置姿勢を取得する(第4の取得)。そして、第4の取得によって取得した位置姿勢を有する仮想物体を、第2の取得によって取得した位置姿勢から見た場合の画像を仮想空間画像として生成する。そして生成した仮想空間画像を、第3の取得によって取得した撮像画像上に重畳させて表示装置に対して出力する。 That is, the position of the body part of the user wearing the head-mounted display device having the imaging device and the display device on the head is acquired (first acquisition). Further, the position and orientation of the imaging device are acquired (second acquisition). Also, a captured image by the imaging device is acquired (third acquisition). Further, the position and orientation of the object to be operated by the part are acquired (fourth acquisition). Then, an image when the virtual object having the position and orientation acquired by the fourth acquisition is viewed from the position and orientation acquired by the second acquisition is generated as a virtual space image. Then, the generated virtual space image is superimposed on the captured image acquired by the third acquisition and output to the display device.
その際、第1の取得によって取得した位置と、第4の取得によって取得した位置と、の間の距離に応じて、仮想空間画像の透明度を制御する。 At that time, the transparency of the virtual space image is controlled according to the distance between the position acquired by the first acquisition and the position acquired by the fourth acquisition.
以下の実施形態では、係る骨子を具体的に説明すべく、上記「部位」を観察者の「手」、上記「物体」を「金槌」とする。もちろん、「部位」や「物体」が他のものであっても、係る骨子は同じである。 In the following embodiments, the “part” is referred to as the “hand” of the observer, and the “object” is referred to as “the hammer” in order to specifically describe the outline. Of course, even if the “part” and “object” are other things, the gist is the same.
[第1の実施形態]
図1は、本実施形態に係るシステムの機能構成を示すブロック図である。図1に示す如く、本実施形態に係るシステムは、システム制御部101と、ビデオシースルー型HMD131(以下、単にHMD131と呼称する)と、で構成されている。
[First Embodiment]
FIG. 1 is a block diagram showing a functional configuration of a system according to the present embodiment. As shown in FIG. 1, the system according to the present embodiment includes a
先ず、HMD131について説明する。HMD131は頭部装着型表示装置の一例としてのものであって、周知の如く、ユーザの頭部に装着するものである。 First, the HMD 131 will be described. The HMD 131 is an example of a head-mounted display device, and as is well known, is mounted on the user's head.
左カメラ132は、HMD131を頭部に装着したユーザの左目(視点)から見える現実空間の動画像を撮像する装置であり、撮像した各フレームの画像(左目用現実空間画像)は、左現実画像出力部134に送出される。左現実画像出力部134は、左カメラ132から受けた左目用現実空間画像をシステム制御部101に対して送出する。
The
右カメラ133は、HMD131を頭部に装着したユーザの右目(視点)から見える現実空間の動画像を撮像する装置であり、撮像した各フレームの画像(右目用現実空間画像)は、右現実画像出力部135に送出される。右現実画像出力部135は、右カメラ133から受けた右目用現実空間画像をシステム制御部101に対して送出する。
The
複合現実感画像入力部136、画像表示部137については後述する。
The mixed reality
次に、システム制御部101について説明する。システム制御部101は、ビデオシースルー型HMD131を頭部に装着するユーザ(観察者)に対して提示する画像を生成する処理を行う装置である。
Next, the
現実画像入力部102は、上記左現実画像出力部134、右現実画像出力部135のそれぞれから送出された左目用現実空間画像、右目用現実空間画像を受ける。そして受けたそれぞれの画像を、画像合成部103、カメラ位置姿勢取得部105、ハンド位置姿勢取得部107、実物位置姿勢取得部109、のそれぞれに送出する。
The real
カメラ位置姿勢取得部105は、右目用現実空間画像を取得すると、係る画像を用いて、右カメラ133の位置姿勢を計算する。同様に、左目用現実空間を取得すると、係る画像を用いて、左カメラ132の位置姿勢を計算する。
When acquiring the right-eye real space image, the camera position and
ここで、カメラが撮像した画像を用いて、このカメラの位置姿勢を求める手法については従来技術である。即ち、現実空間中における配置位置が既知のマーカ若しくは自然特徴を含む現実空間画像を取得すると、係る現実空間画像中におけるマーカ若しくは自然特徴の座標位置を検出する。そして、検出した座標位置と、対応する配置位置とを用いて、後は三角測量の分野でも広く用いられている計算技術を用いれば、係る現実空間画像を撮像したカメラの位置姿勢は求めることができる。もちろん、画像を用いて係る画像を撮像したカメラの位置姿勢を計算する技術については様々なものがあり、本実施形態では、何れを用いてもよい。 Here, a technique for obtaining the position and orientation of the camera using an image captured by the camera is a conventional technique. That is, when a real space image including a marker or a natural feature whose arrangement position is known in the real space is acquired, the coordinate position of the marker or the natural feature in the real space image is detected. Then, by using the detected coordinate position and the corresponding arrangement position, and then using a calculation technique widely used in the field of triangulation, the position and orientation of the camera that captured the real space image can be obtained. it can. Of course, there are various techniques for calculating the position and orientation of the camera that captured the image using the image, and any of these may be used in the present embodiment.
なお、カメラの位置姿勢を計算する手法についてはこのほかにもあり、例えば、センサシステムを用いた手法もある。例えば、磁気センサシステムをカメラ位置姿勢取得部105に接続した場合を考える。この場合、磁界を発生するトランスミッタを現実空間中の所定の位置に配置すると共に、カメラには係る磁界中における自身の位置姿勢に応じた磁界の変化を検知するレシーバを取り付ける。レシーバが検知した結果を示す信号は、センサ制御装置と呼ばれる装置に入力され、センサ制御装置は、係る信号に基づいて、センサ座標系におけるレシーバの位置姿勢を求める。そしてセンサ制御装置は、求めた位置姿勢をカメラ位置姿勢取得部105に送出する。これにより、カメラ位置姿勢取得部105は、センサ座標系におけるレシーバの位置姿勢を、カメラの位置姿勢として取得することができる。ここで、センサ座標系とは、トランスミッタの位置を原点とし、係る原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系である。
There are other methods for calculating the position and orientation of the camera. For example, there is a method using a sensor system. For example, consider a case where a magnetic sensor system is connected to the camera position and
なお、カメラ位置姿勢取得部105は、取得した位置姿勢をどのような座標系に変換しても良い。
The camera position and
なお、以上説明した、カメラの位置姿勢を取得するための技術については周知であるので、これ以上の説明は省略する。 In addition, since the technique for acquiring the position and orientation of the camera described above is well known, further description is omitted.
ハンド位置姿勢取得部107は、右目用現実空間画像、左目用現実空間と、カメラ位置姿勢取得部105が取得した位置姿勢とを用いて、ユーザの手の位置を取得する。例えば、ユーザの手にマーカを貼り付けておき、係るマーカを含む手の撮像画像を用いて、この手の位置を求める。なお、係る技術についても周知であるので、これについての詳細な説明は省略する。また、センサを用いて手の位置を取得しても良く、その場合における取得方法については、上述した、カメラの位置姿勢を取得する方法と同じである。
The hand position /
実物位置姿勢取得部109は、右目用現実空間画像、左目用現実空間と、カメラ位置姿勢取得部105が取得した位置姿勢とを用いて、ユーザの手による操作対象としての現実物体(ここでは金槌)の位置を取得する。例えば、金槌にマーカを貼り付けておき、係るマーカを含む金槌の撮像画像を用いて、この金槌の位置を求める。なお、係る技術についても周知であるので、これについての詳細な説明は省略する。また、センサを用いて金槌の位置を取得しても良く、その場合における取得方法については、上述した、カメラの位置姿勢を取得する方法と同じである。
The real position /
仮想世界生成部106は先ず、実物位置姿勢取得部109が求めた位置姿勢に、金槌に重畳させる仮想物体を配置する。なお、その他にも仮想空間中に配置すべき仮想物体があれば、それについても配置する。このようにして仮想空間を構築する。
First, the virtual
そして、カメラ位置姿勢取得部105が求めた左カメラ132の位置姿勢に、仮想空間を観察する視点を配置し、係る視点から見える仮想空間の画像を、左目用仮想空間画像として生成する。所定の位置姿勢を有する視点から見える仮想空間の画像を生成するための技術については周知であるので、これについての説明は省略する。一方、カメラ位置姿勢取得部105が求めた右カメラ133の位置姿勢に、仮想空間を観察する視点を配置し、係る視点から見える仮想空間の画像を、右目用仮想空間画像として生成する。
Then, a viewpoint for observing the virtual space is arranged at the position and orientation of the
仮想世界生成部106は、生成した左目用仮想空間画像、右目用仮想空間画像のそれぞれを、画像合成部103に対して送出する。
The virtual
画像合成部103は、現実画像入力部102から受けた右目用現実空間画像上に、右目用仮想空間画像を重畳させた右目用合成画像を生成する。同様に、画像合成部103は、現実画像入力部102から受けた左目用現実空間画像上に、左目用仮想空間画像を重畳させた左目用合成画像を生成する。そして、生成した右目用合成画像、左目用合成画像のそれぞれを、複合現実感画像出力部104に対して送出する。
The
複合現実感画像出力部104は、受けた右目用合成画像、左目用合成画像のそれぞれを、HMD131が有する複合現実感画像入力部136に対して送出する。
The mixed reality
複合現実感画像入力部136は、受けた右目用合成画像、左目用合成画像のそれぞれを、画像表示部137に対して送出する。
The mixed reality
画像表示部137は、右目用の表示部と左目用の表示部とを有し、右目用の表示部と左目用の表示部とはそれぞれ、HMD131を頭部に装着したユーザの右目、左目の眼前に位置するように、HMD131に対して取り付けられている。従って、複合現実感画像入力部136から受けた右目用合成画像は、右目用の表示部に送出し、左目用合成画像は、左目用の表示部に送出する。
The
これにより、HMD131を頭部に装着したユーザの左目の眼前には、左目用合成画像が提示されることになるし、右目の眼前には、右目用合成画像が提示されることになる。
As a result, the left eye composite image is presented in front of the left eye of the user wearing the
以上が、本実施形態に係るシステムの基本的な動作であるが、上述したように、本実施形態に係るシステムは、ユーザの手の位置が、金槌に近づくに従って、金槌に重畳させる仮想物体の画像の透明度を上げる処理を行う。 The above is the basic operation of the system according to the present embodiment. As described above, the system according to the present embodiment has a virtual object to be superimposed on the hammer as the position of the user's hand approaches the hammer. Performs processing to increase the transparency of the image.
図2は、現実物体としての金槌の一例を示す図である。図3は、金槌に重畳させる仮想物体の一例を示す図である。従って、本実施形態では、図2に示した現実物体としての金槌に、図3に示した仮想物体の画像を重畳させることになる。また、本実施形態では、仮想空間中に、図4に示すような大型の仮想物体を配置する。図4は、仮想空間中に配置する大型の仮想物体の一例を示す図である。 FIG. 2 is a diagram illustrating an example of a hammer as a real object. FIG. 3 is a diagram illustrating an example of a virtual object to be superimposed on a hammer. Therefore, in the present embodiment, the image of the virtual object shown in FIG. 3 is superimposed on the hammer as the real object shown in FIG. In this embodiment, a large virtual object as shown in FIG. 4 is arranged in the virtual space. FIG. 4 is a diagram illustrating an example of a large virtual object arranged in the virtual space.
以下の説明では、ユーザは、手に現実物体としての金槌を持ち、図4に示す仮想物体に対するインタラクションを計るものとする。もちろん、ユーザはHMD131を介して手を見れば、図2に示した金槌上に図3に示した仮想物体の画像が見えることになる。
In the following description, it is assumed that the user holds a hammer as a real object in his hand and measures the interaction with the virtual object shown in FIG. Of course, if the user looks at his / her hand through the
図5は、HMD131を頭部に装着したユーザ501が金槌500を取りに行く様子を、係るユーザ以外の第三者が観察した場合の様子を示す図である。
FIG. 5 is a diagram illustrating a state where a third party other than the user observes a state in which the
図6は、HMD131を頭部に装着したユーザが金槌を取りに行く様子を、同じ空間を観察可能な第三者が観察した場合の様子を示す図である。即ち、ユーザ501には、金槌上に重畳された仮想物体601と、大型の仮想物体602とが見えている。図7は、ユーザ501の視点から見える空間の様子を示す図である。
FIG. 6 is a diagram illustrating a state where a third person who can observe the same space observes the state where the user wearing the
ここで、ユーザ501が金槌500を手に掴もうとすべく、手を仮想物体601の位置にのばしても、遠近感が分かりずらいので、手が仮想物体601に届いたと感じても、実際には図8に示す如く、未だ手801は金槌500の手前に位置していることもある。
Here, even if the
本実施形態では、係る問題を解消すべく、金槌500と手801との間の距離が小さくなるほど、金槌500に重畳させる仮想物体601の透明度を上げる。更には、金槌500と手801との間の距離が小さくなるほど、金槌500の周囲に描画されている仮想空間の画像をマスクし、金槌500の周囲には、現実空間しか見えないようにする。これにより、ユーザ501に、実際の自分の手801の位置と金槌500の位置とを把握させ、それぞれの位置間の距離を把握させることを容易にする。
In the present embodiment, in order to solve the problem, the transparency of the
図9は、手801を金槌500の位置に近づけた場合に、ユーザ501に対して提示する画像を示す図である。
FIG. 9 is a diagram illustrating an image to be presented to the
また、ユーザ501の手801が金槌500を掴んだ状態(例えば、手801の位置と金槌500の位置とが、予め定めた閾値以下となった状態)が、予め定められた時間(例えば、2秒)以上経過した場合には、次のような処理を行う。即ち、金槌500に重畳させている仮想物体601の画像の透明度を元に戻し(透明度を不透明にする)、更に、上記マスク処理もキャンセルする。これにより、ユーザ501がその手801に金槌500を掴んだ後には、ユーザ501は、金槌500を用いて、大型の仮想物体602とのインタラクションを行うことができる。
In addition, a state in which the
図10は、システム制御部101が行う、現実空間の画像と仮想空間の画像との合成画像を、HMD131に対して送出する為の一連の処理(画像処理)のフローチャートである。
FIG. 10 is a flowchart of a series of processing (image processing) performed by the
ステップS1001では、現実画像入力部102は、左現実画像出力部134、右現実画像出力部135のそれぞれから送出された左目用現実空間、右目用現実空間画像を受ける。そして受けたそれぞれの画像を、画像合成部103、カメラ位置姿勢取得部105、ハンド位置姿勢取得部107、実物位置姿勢取得部109、のそれぞれに送出する。
In step S1001, the real
ステップS1002では、カメラ位置姿勢取得部105は、右目用現実空間画像を取得すると、係る画像を用いて、右カメラ133の位置姿勢を計算する。同様に、左目用現実空間を取得すると、係る画像を用いて、左カメラ132の位置姿勢を計算する。
In step S <b> 1002, when the camera position and
次にステップS1003では、ハンド位置姿勢取得部107は、上述のようにして、ユーザの手の位置を取得する。また、実物位置姿勢取得部109は、上述のようにして、金槌の位置を取得する。
In step S1003, the hand position /
ステップS1004では、仮想世界生成部106は、ステップS1003で取得した手の位置と、金槌の位置と、の間の距離Dを求める。係る距離Dが閾値θ1以下であれば処理はステップS1005を介してステップS1009に進み、閾値θ1より大きければ処理はステップS1005を介してステップS1006に進む。
In step S1004, the virtual
ステップS1006では、仮想世界生成部106は先ず、実物位置姿勢取得部109が求めた位置姿勢に、金槌に重畳させる仮想物体を配置する。なお、その他にも仮想空間中に配置すべき仮想物体があれば、それについても配置する。このようにして仮想空間を構築する。
In step S <b> 1006, the virtual
そして、カメラ位置姿勢取得部105が求めた左カメラ132の位置姿勢に、仮想空間を観察する視点を配置し、係る視点から見える仮想空間の画像を、左目用仮想空間画像として生成する。一方、カメラ位置姿勢取得部105が求めた右カメラ133の位置姿勢に、仮想空間を観察する視点を配置し、係る視点から見える仮想空間の画像を、右目用仮想空間画像として生成する。仮想世界生成部106は、生成した左目用仮想空間画像、右目用仮想空間画像のそれぞれを、画像合成部103に対して送出する。
Then, a viewpoint for observing the virtual space is arranged at the position and orientation of the
ステップS1007では、画像合成部103は、現実画像入力部102から受けた右目用現実空間画像上に、右目用仮想空間画像を重畳させた右目用合成画像を生成する。同様に、画像合成部103は、現実画像入力部102から受けた左目用現実空間画像上に、左目用仮想空間画像を重畳させた左目用合成画像を生成する。そして、生成した右目用合成画像、左目用合成画像のそれぞれを、複合現実感画像出力部104に対して送出する。
In step S <b> 1007, the
ステップS1008では、複合現実感画像出力部104は、受けた右目用合成画像、左目用合成画像のそれぞれを、HMD131が有する複合現実感画像入力部136に対して送出する。
In step S <b> 1008, the mixed reality
一方、ステップS1009では、仮想世界生成部106は、これから生成しようとする「金槌に重畳させる仮想物体」の透明度を上げる。実際には、係る仮想物体を構成する各画素のアルファ値を上げることで、透明度を上げる。なお、距離Dに対してどの程度透明度を上げるのかについては特に限定するものではないが、距離Dが小さくなるほど透明度を上げ、距離Dが大きくなるほど透明度を下げるような、距離Dと透明度の関係であればよい。
On the other hand, in step S1009, the virtual
次に、距離Dが閾値θ2(<θ1)以下であれば、処理はステップS1010を介してステップS1011に進み、閾値θ2よりおおきければ、処理はステップS1010を介してステップS1006に進む。このとき、ステップS1006において、「金槌に重畳させる仮想物体」を生成する場合には、その透明度は、ステップS1009で設定されたものとなる。 Next, if the distance D is equal to or smaller than the threshold θ2 (<θ1), the process proceeds to step S1011 via step S1010, and if greater than the threshold θ2, the process proceeds to step S1006 via step S1010. At this time, in the case where a “virtual object to be superimposed on the hammer” is generated in step S1006, the transparency is set in step S1009.
ステップS1011では、マスク領域作成部108は、画像合成部103に対して、以降に行うステップS1007における合成処理で「金槌に重畳させる仮想物体」の周囲については合成対象とせず、現実空間画像を用いるように指示する。即ち、図9に示す如く、仮想空間画像上で、「金槌に重畳させる仮想物体」の描画領域周辺については、現実空間画像に対して何も重畳させない。
In step S1011, the mask
次に、距離Dが閾値θ3(<θ2)以下で、且つ距離Dが閾値θ3(<θ2)以下である状態が連続して予め定められた時間以上経過した、という条件が満たされた場合には、処理をステップS1012を介してステップS1013に進む。一方、係る条件が満たされていない場合には、処理をステップS1012を介してステップS1006に進める。 Next, when the condition that the distance D is equal to or less than the threshold value θ3 (<θ2) and the distance D is equal to or less than the threshold value θ3 (<θ2) continuously elapses for a predetermined time is satisfied. Advances the process to step S1013 via step S1012. On the other hand, if the condition is not satisfied, the process proceeds to step S1006 via step S1012.
ここで、係る条件は、要は、ユーザが自身の手で現実物体としての金槌を握っているか否かを判断するためのものである。従って、ここで用いている閾値θ3とは、ユーザが現実物体としての金槌を手に持ったときに、手と現実物体としての金槌との距離に近い値であることが好ましい。 Here, the condition is basically for determining whether or not the user is holding a hammer as a real object with his / her hand. Therefore, the threshold θ3 used here is preferably a value close to the distance between the hand and the real hammer as a real object when the user holds the hammer as a real object.
処理がステップS1012からステップS1006に進んだ場合、ステップS1006では上述のようにして仮想空間画像を生成し、ステップS1007では上述のようにして合成処理を行う。しかし、ステップS1007では上述のように、画像合成部103は、現実空間画像上に仮想空間画像を重畳させる場合に、「金槌に重畳させる仮想物体」の周囲については現実空間画像をそのまま用いる。これにより、例えば、図9に示すような、「現実物体としての金槌」の周囲には他の仮想物体の画像が重畳されていない合成画像を得ることができる。
When the process proceeds from step S1012 to step S1006, the virtual space image is generated as described above in step S1006, and the composition process is performed as described above in step S1007. However, in step S1007, as described above, when superimposing the virtual space image on the real space image, the
一方、ステップS1013では、ユーザは手に現実物体としての金槌を持ったのであるから、もう係る現実物体としての金槌上に仮想物体を重畳表示させても良いので、仮想世界生成部106は、係る仮想物体の画像の透明度を元に戻す。更に仮想世界生成部106は、上記マスク領域作成部108に対して、マスク指示を出すのをキャンセルさせる。
On the other hand, in step S1013, since the user has a hammer as a real object in his hand, a virtual object may be superimposed on the hammer as a real object. Restore the transparency of the virtual object image. Further, the virtual
なお、本実施形態では、最初に説明したように、ユーザの部位として「手」を用いているが、「手」以外、例えば「足」であっても良い。 In this embodiment, as described first, “hand” is used as the user's part, but other than “hand”, for example, “foot” may be used.
[第2の実施形態]
第1の実施形態では、図1に示したシステム制御部101を構成する各部は全て暗にハードウェアで構成されているものとして説明した。しかし、その一部をソフトウェアでもって構成しても良い。この場合、システム制御部101は、係るソフトウェアを実行可能なPC(パーソナルコンピュータ)等のコンピュータで構成しても良い。
[Second Embodiment]
In the first embodiment, the description has been made assuming that all the units constituting the
図11は、システム制御部101に適用可能なコンピュータのハードウェア構成例を示すブロック図である。
FIG. 11 is a block diagram illustrating a hardware configuration example of a computer applicable to the
1101はCPUで、RAM1102やROM1103に格納されているプログラムやデータを用いてコンピュータ全体の制御を行うと共に、コンピュータを適用するシステム制御部101が行う上述の各処理を実行する。
A
1102はRAMで、外部記憶装置1106からロードされたプログラムやデータ、I/F(インターフェース)1107を介してHMD131から受信した画像データなどを一時的に記憶するためのエリアを有する。更に、RAM1102は、CPU1101が各種の処理を実行する際に用いるワークエリアも有する。即ち、RAM1102は各種のエリアを適宜提供することができる。
1103はROMで、コンピュータの設定データや、ブートプログラムなどを格納する。
A
1104は操作部で、キーボードやマウスなどにより構成されており、コンピュータの操作者が操作することで、各種の指示をCPU1101に対して入力することができる。
An
1105は表示部で、CRTや液晶画面などにより構成されており、CPU1101による処理結果を画像や文字などでもって表示することができる。
A
1106は外部記憶装置で、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置1106内には、OS(オペレーティングシステム)や、システム制御部101が行うものとして説明した上述の各処理をCPU1101に実行させるためのプログラムやデータが保存されている。
An
係るプログラムには、カメラ位置姿勢取得部105、ハンド位置姿勢取得部107、実物位置姿勢取得部109、マスク領域作成部108、仮想世界生成部106、画像合成部103の機能をCPU1101に実行させるためのプログラムも含まれている。
This program is for causing the
また、係るデータには、仮想空間を構成する各仮想物体のデータも含まれている。 In addition, the data includes data of each virtual object constituting the virtual space.
外部記憶装置1106内に保存されているプログラムやデータは、CPU1101による制御に従って適宜RAM1102にロードされる。そしてCPU1101はこのロードされたプログラムやデータを用いて処理を実行することで、本コンピュータは、システム制御部101が行うものとして上述した各処理を実行することになる。
Programs and data stored in the
1107はI/Fで、ここには上記HMD131が接続される。これにより、本コンピュータは、HMD131が有する左現実画像出力部134、右現実画像出力部135から送出される画像のデータをこのI/F1107を介して受信することができる。更に、本コンピュータは、このI/F1107を介して、右目用合成画像、左目用合成画像をHMD131に対して送信することができる。即ち、I/F1107は、図1に示した、現実画像入力部102、複合現実感画像出力部104として機能する。
1108は上述の各部を繋ぐバスである。
A
[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.
また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, an operating system (OS) or the like running on the computer performs part or all of the actual processing based on the instruction of the program code. Needless to say, the process includes the case where the functions of the above-described embodiments are realized.
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, it is assumed that the program code read from the recording medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU included in the function expansion card or function expansion unit performs part or all of the actual processing, and the function of the above-described embodiment is realized by the processing. Needless to say.
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。 When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.
Claims (8)
前記撮像装置の位置姿勢を取得する第2の取得手段と、
前記撮像装置による撮像画像を取得する第3の取得手段と、
前記部位による操作対象となる物体の位置姿勢を取得する第4の取得手段と、
前記第4の取得手段が取得した位置姿勢を有する仮想物体を、前記第2の取得手段が取得した位置姿勢から見た場合の画像を仮想空間画像として生成する生成手段と、
前記生成手段が生成した仮想空間画像を、前記第3の取得手段が取得した撮像画像上に重畳させて前記表示装置に対して出力する出力手段とを備え、
前記生成手段は、
前記第1の取得手段が取得した位置と、前記第4の取得手段が取得した位置と、の間の距離に応じて、前記仮想空間画像の透明度を制御する
ことを特徴とする画像処理装置。 First acquisition means for acquiring a position of a body part of a user wearing a head-mounted display device having an imaging device and a display device on the head;
Second acquisition means for acquiring the position and orientation of the imaging device;
Third acquisition means for acquiring a captured image by the imaging device;
Fourth acquisition means for acquiring a position and orientation of an object to be operated by the part;
Generating means for generating, as a virtual space image, an image when the virtual object having the position and orientation acquired by the fourth acquisition means is viewed from the position and orientation acquired by the second acquisition means;
An output unit that superimposes the virtual space image generated by the generation unit on the captured image acquired by the third acquisition unit and outputs the image to the display device;
The generating means includes
An image processing apparatus, wherein the transparency of the virtual space image is controlled according to a distance between the position acquired by the first acquisition unit and the position acquired by the fourth acquisition unit.
前記撮像装置の位置姿勢を取得する第2の取得工程と、
前記撮像装置による撮像画像を取得する第3の取得工程と、
前記部位による操作対象となる物体の位置姿勢を取得する第4の取得工程と、
前記第4の取得工程で取得した位置姿勢を有する仮想物体を、前記第2の取得工程で取得した位置姿勢から見た場合の画像を仮想空間画像として生成する生成工程と、
前記生成工程で生成した仮想空間画像を、前記第3の取得工程で取得した撮像画像上に重畳させて前記表示装置に対して出力する出力工程とを備え、
前記生成工程では、
前記第1の取得工程で取得した位置と、前記第4の取得工程で取得した位置と、の間の距離に応じて、前記仮想空間画像の透明度を制御する
ことを特徴とする画像処理方法。 A first acquisition step of acquiring a position of a body part of a user wearing a head-mounted display device having an imaging device and a display device on the head;
A second acquisition step of acquiring the position and orientation of the imaging device;
A third acquisition step of acquiring a captured image by the imaging device;
A fourth acquisition step of acquiring the position and orientation of the object to be operated by the part;
A generation step of generating an image when the virtual object having the position and orientation acquired in the fourth acquisition step is viewed from the position and orientation acquired in the second acquisition step as a virtual space image;
An output step of superimposing the virtual space image generated in the generation step on the captured image acquired in the third acquisition step and outputting it to the display device;
In the generating step,
The transparency of the virtual space image is controlled according to the distance between the position acquired in the first acquisition step and the position acquired in the fourth acquisition step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007186324A JP2009025918A (en) | 2007-07-17 | 2007-07-17 | Image processor and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007186324A JP2009025918A (en) | 2007-07-17 | 2007-07-17 | Image processor and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009025918A true JP2009025918A (en) | 2009-02-05 |
Family
ID=40397689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007186324A Withdrawn JP2009025918A (en) | 2007-07-17 | 2007-07-17 | Image processor and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009025918A (en) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102281455A (en) * | 2010-06-11 | 2011-12-14 | 任天堂株式会社 | Image display apparatus, image display system, and image display method |
US20120075424A1 (en) * | 2010-09-24 | 2012-03-29 | Hal Laboratory Inc. | Computer-readable storage medium having image processing program stored therein, image processing apparatus, image processing system, and image processing method |
JP2012174218A (en) * | 2011-02-24 | 2012-09-10 | Ohbayashi Corp | Image composition method |
JP2012178068A (en) * | 2011-02-25 | 2012-09-13 | Nintendo Co Ltd | Information processing system, information processing method, information processor and information processing program |
WO2013069196A1 (en) * | 2011-11-11 | 2013-05-16 | Sony Corporation | Information processing device, information processing method, and program |
US8633947B2 (en) | 2010-06-02 | 2014-01-21 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method |
US8854356B2 (en) | 2010-09-28 | 2014-10-07 | Nintendo Co., Ltd. | Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method |
JP2015143976A (en) * | 2013-12-25 | 2015-08-06 | キヤノンマーケティングジャパン株式会社 | Information processing device, method for controlling the same, and program |
US9278281B2 (en) | 2010-09-27 | 2016-03-08 | Nintendo Co., Ltd. | Computer-readable storage medium, information processing apparatus, information processing system, and information processing method |
US9282319B2 (en) | 2010-06-02 | 2016-03-08 | Nintendo Co., Ltd. | Image display system, image display apparatus, and image display method |
JP2017528834A (en) * | 2014-09-11 | 2017-09-28 | ノキア テクノロジーズ オサケユイチア | Method, apparatus and computer program for displaying images |
JP2017199404A (en) * | 2017-06-21 | 2017-11-02 | キヤノンマーケティングジャパン株式会社 | Information processing device, information processing system, control method thereof and program |
JP2018190171A (en) * | 2017-05-02 | 2018-11-29 | 京セラドキュメントソリューションズ株式会社 | Display |
WO2019087513A1 (en) * | 2017-10-31 | 2019-05-09 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2019514101A (en) * | 2016-03-24 | 2019-05-30 | クアルコム,インコーポレイテッド | Spatial relations for integrating visual images of physical environment into virtual reality |
CN109993834A (en) * | 2017-12-30 | 2019-07-09 | 深圳多哚新技术有限责任公司 | Localization method and device of the target object in Virtual Space |
CN110275619A (en) * | 2015-08-31 | 2019-09-24 | 北京三星通信技术研究有限公司 | The method and its head-mounted display of real-world object are shown in head-mounted display |
US10453235B2 (en) | 2016-12-01 | 2019-10-22 | Canon Kabushiki Kaisha | Image processing apparatus displaying image of virtual object and method of displaying the same |
WO2020026419A1 (en) * | 2018-08-02 | 2020-02-06 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation device and image generation method |
JP2021149182A (en) * | 2020-03-16 | 2021-09-27 | 大豊精機株式会社 | Work management system and method for setting work management system |
JP2021163335A (en) * | 2020-04-01 | 2021-10-11 | エヌエイチエヌ コーポレーション | Information processing program and information processing system |
-
2007
- 2007-07-17 JP JP2007186324A patent/JP2009025918A/en not_active Withdrawn
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9282319B2 (en) | 2010-06-02 | 2016-03-08 | Nintendo Co., Ltd. | Image display system, image display apparatus, and image display method |
US8633947B2 (en) | 2010-06-02 | 2014-01-21 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method |
US8780183B2 (en) | 2010-06-11 | 2014-07-15 | Nintendo Co., Ltd. | Computer-readable storage medium, image display apparatus, image display system, and image display method |
US20110304702A1 (en) * | 2010-06-11 | 2011-12-15 | Nintendo Co., Ltd. | Computer-Readable Storage Medium, Image Display Apparatus, Image Display System, and Image Display Method |
US20110304703A1 (en) * | 2010-06-11 | 2011-12-15 | Nintendo Co., Ltd. | Computer-Readable Storage Medium, Image Display Apparatus, Image Display System, and Image Display Method |
US10015473B2 (en) * | 2010-06-11 | 2018-07-03 | Nintendo Co., Ltd. | Computer-readable storage medium, image display apparatus, image display system, and image display method |
CN102281455A (en) * | 2010-06-11 | 2011-12-14 | 任天堂株式会社 | Image display apparatus, image display system, and image display method |
CN102281455B (en) * | 2010-06-11 | 2015-12-09 | 任天堂株式会社 | Image display system, device and method |
EP2395769B1 (en) * | 2010-06-11 | 2015-03-04 | Nintendo Co., Ltd. | Image display program, image display system, and image display method |
EP2395768B1 (en) * | 2010-06-11 | 2015-02-25 | Nintendo Co., Ltd. | Image display program, image display system, and image display method |
US9530249B2 (en) * | 2010-09-24 | 2016-12-27 | Nintendo Co., Ltd. | Computer-readable storage medium having image processing program stored therein, image processing apparatus, image processing system, and image processing method |
US20120075424A1 (en) * | 2010-09-24 | 2012-03-29 | Hal Laboratory Inc. | Computer-readable storage medium having image processing program stored therein, image processing apparatus, image processing system, and image processing method |
US9278281B2 (en) | 2010-09-27 | 2016-03-08 | Nintendo Co., Ltd. | Computer-readable storage medium, information processing apparatus, information processing system, and information processing method |
US8854356B2 (en) | 2010-09-28 | 2014-10-07 | Nintendo Co., Ltd. | Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method |
JP2012174218A (en) * | 2011-02-24 | 2012-09-10 | Ohbayashi Corp | Image composition method |
US9064335B2 (en) | 2011-02-25 | 2015-06-23 | Nintendo Co., Ltd. | System, method, device and computer-readable medium recording information processing program for superimposing information |
JP2012178068A (en) * | 2011-02-25 | 2012-09-13 | Nintendo Co Ltd | Information processing system, information processing method, information processor and information processing program |
CN103907139A (en) * | 2011-11-11 | 2014-07-02 | 索尼公司 | Information processing device, information processing method, and program |
JP2013105285A (en) * | 2011-11-11 | 2013-05-30 | Sony Corp | Information processing device, information processing method, and program |
WO2013069196A1 (en) * | 2011-11-11 | 2013-05-16 | Sony Corporation | Information processing device, information processing method, and program |
US9497389B2 (en) | 2011-11-11 | 2016-11-15 | Sony Corporation | Information processing device, information processing method, and program for reduction of noise effects on a reference point |
JP2015143976A (en) * | 2013-12-25 | 2015-08-06 | キヤノンマーケティングジャパン株式会社 | Information processing device, method for controlling the same, and program |
US10916057B2 (en) | 2014-09-11 | 2021-02-09 | Nokia Technologies Oy | Method, apparatus and computer program for displaying an image of a real world object in a virtual reality enviroment |
JP2017528834A (en) * | 2014-09-11 | 2017-09-28 | ノキア テクノロジーズ オサケユイチア | Method, apparatus and computer program for displaying images |
CN110275619A (en) * | 2015-08-31 | 2019-09-24 | 北京三星通信技术研究有限公司 | The method and its head-mounted display of real-world object are shown in head-mounted display |
JP2019514101A (en) * | 2016-03-24 | 2019-05-30 | クアルコム,インコーポレイテッド | Spatial relations for integrating visual images of physical environment into virtual reality |
US10453235B2 (en) | 2016-12-01 | 2019-10-22 | Canon Kabushiki Kaisha | Image processing apparatus displaying image of virtual object and method of displaying the same |
JP2018190171A (en) * | 2017-05-02 | 2018-11-29 | 京セラドキュメントソリューションズ株式会社 | Display |
JP2017199404A (en) * | 2017-06-21 | 2017-11-02 | キヤノンマーケティングジャパン株式会社 | Information processing device, information processing system, control method thereof and program |
US11263456B2 (en) | 2017-10-31 | 2022-03-01 | Sony Corporation | Virtual object repositioning versus motion of user and perceived or expected delay |
JPWO2019087513A1 (en) * | 2017-10-31 | 2020-11-19 | ソニー株式会社 | Information processing equipment, information processing methods and programs |
WO2019087513A1 (en) * | 2017-10-31 | 2019-05-09 | ソニー株式会社 | Information processing device, information processing method, and program |
JP7156301B2 (en) | 2017-10-31 | 2022-10-19 | ソニーグループ株式会社 | Information processing device, information processing method and program |
CN109993834A (en) * | 2017-12-30 | 2019-07-09 | 深圳多哚新技术有限责任公司 | Localization method and device of the target object in Virtual Space |
CN109993834B (en) * | 2017-12-30 | 2023-08-29 | 深圳多哚新技术有限责任公司 | Positioning method and device of target object in virtual space |
WO2020026419A1 (en) * | 2018-08-02 | 2020-02-06 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation device and image generation method |
US11335071B2 (en) | 2018-08-02 | 2022-05-17 | Sony Interactive Entertainment Inc. | Image generation apparatus and image generation method for augmented reality images based on object interaction |
JP2021149182A (en) * | 2020-03-16 | 2021-09-27 | 大豊精機株式会社 | Work management system and method for setting work management system |
JP7432407B2 (en) | 2020-03-16 | 2024-02-16 | 大豊精機株式会社 | Work management system and how to set up the work management system |
JP2021163335A (en) * | 2020-04-01 | 2021-10-11 | エヌエイチエヌ コーポレーション | Information processing program and information processing system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009025918A (en) | Image processor and image processing method | |
JP4227561B2 (en) | Image processing method and image processing apparatus | |
JP4262011B2 (en) | Image presentation method and apparatus | |
JP4950834B2 (en) | Image processing apparatus and image processing method | |
JP4401728B2 (en) | Mixed reality space image generation method and mixed reality system | |
JP4933406B2 (en) | Image processing apparatus and image processing method | |
JP4810295B2 (en) | Information processing apparatus and control method therefor, image processing apparatus, program, and storage medium | |
JP4533087B2 (en) | Image processing method and image processing apparatus | |
JP4642538B2 (en) | Image processing method and image processing apparatus | |
US8994729B2 (en) | Method for simulating operation of object and apparatus for the same | |
KR20230048457A (en) | Technique for recording augmented reality data | |
JP2009169622A (en) | Image processor, and image processing method | |
JP2017134771A (en) | Information processing device, information processing method, and program | |
JP2009087161A (en) | Image processor and image processing method | |
JP2005339377A (en) | Image processing method and image processor | |
JP2006285609A (en) | Image processing method, image processor | |
JP2007004713A (en) | Image processing method and image processor | |
JP4217661B2 (en) | Image processing method and image processing apparatus | |
JP2018063567A (en) | Image processing device, image processing method and program | |
JP2005251118A (en) | Method and device for image processing | |
JP2004233201A (en) | Position attitude measuring method | |
JP7279113B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, COMPUTER PROGRAM | |
JP2006163383A (en) | Information processing apparatus and information processing method | |
JP4689344B2 (en) | Information processing method and information processing apparatus | |
JP2005128877A (en) | Complex sense of reality providing system and method, information processing device and method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20101005 |