[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2009025918A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2009025918A
JP2009025918A JP2007186324A JP2007186324A JP2009025918A JP 2009025918 A JP2009025918 A JP 2009025918A JP 2007186324 A JP2007186324 A JP 2007186324A JP 2007186324 A JP2007186324 A JP 2007186324A JP 2009025918 A JP2009025918 A JP 2009025918A
Authority
JP
Japan
Prior art keywords
image
orientation
virtual space
acquisition
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007186324A
Other languages
Japanese (ja)
Inventor
Taichi Matsui
太一 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007186324A priority Critical patent/JP2009025918A/en
Publication of JP2009025918A publication Critical patent/JP2009025918A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Generation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology for further facilitating user operation to a real object superposed with a virtual object. <P>SOLUTION: A virtual world generation part 106 generates a virtual space image for the left eye and a virtual space image for the right eye when viewing the virtual object having a position/attitude of the object that is an operation target by a hand of a user wearing an HMD (Head-Mounted Display) 131 on the head from positions/attitudes of a left camera 132 and a right camera 133. An image composition part 103 superposes the respective images on images by the left camera 132 and the right camera 133. The virtual world generation part 106 controls transparency of the virtual space image according to a distance between a position of the hand and the position of the object. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、複合現実感を提供するための技術に関するものである。   The present invention relates to a technique for providing mixed reality.

近年、現実世界と仮想世界とを違和感なく自然に結合する複合現実感(MR:Mixed Reality)の技術を応用した装置(複合現実感装置)が盛んに提案されている。これらの複合現実感装置は、次のようにして複合現実感を、本装置の使用者に提示している。即ち、カメラなどの撮像装置によって撮影した現実世界の画像に対し、コンピュータグラフィックス(CG:Computer Graphics)で描画した仮想世界の画像を合成する。そして係る合成による合成画像を、ヘッドマウントディスプレイ(HMD:Head-Mounted Display)等の表示装置に表示する。   2. Description of the Related Art In recent years, devices (mixed reality devices) that apply a mixed reality (MR) technology that naturally couples the real world and the virtual world naturally are not proposed. These mixed reality devices present mixed reality to the user of the device as follows. That is, a virtual world image drawn by computer graphics (CG) is synthesized with a real world image taken by an imaging device such as a camera. Then, the synthesized image by the synthesis is displayed on a display device such as a head-mounted display (HMD).

これらの複合現実感装置は、複合現実感を高めるために、本装置の使用者の視点位置・姿勢をリアルタイムで取得し、現実世界の画像の変化に追従させて仮想世界の画像を生成し、使用者に対してHMDのような表示装置にリアルタイムに表示する必要がある。複合現実感装置では、センサ装置によって計測した使用者の視点位置・姿勢を仮想世界での仮想の視点位置・姿勢として設定し、この設定に基づいて仮想世界の画像をCGにより描画し、現実世界の画像と合成する。   In order to enhance the mixed reality, these mixed reality devices acquire the viewpoint position and orientation of the user of this device in real time, follow the change of the real world image, generate the virtual world image, It is necessary to display in real time on a display device such as an HMD for the user. In the mixed reality device, the viewpoint position / orientation of the user measured by the sensor device is set as a virtual viewpoint position / orientation in the virtual world, and based on this setting, an image of the virtual world is drawn by CG, and the real world Composite with the image.

また、HMDは、複合現実感の提示のため、複合現実感装置の使用者の視野には、HMDによる表示があり、且つ係る表示内にはCGを描画する領域が含まれている。   In addition, since the HMD presents mixed reality, the visual field of the user of the mixed reality device includes display by the HMD, and the display includes a region for drawing CG.

これらの技術により、複合現実感装置の使用者は、あたかも現実世界の中に仮想の物体が存在しているかのような画像を観察することができる。   With these technologies, the user of the mixed reality apparatus can observe an image as if a virtual object exists in the real world.

このような技術を用いれば、例えば、現実物体に所望の仮想物体を重畳表示させ、使用者は係る現実物体を把持して操作することで、あたかも係る仮想物体が示すものを操作しているような感覚を、使用者に対して与えることができる(特許文献1)。
特開2006−146584号公報
If such a technique is used, for example, a desired virtual object is superimposed on a real object, and the user grasps and operates the real object, as if operating the object indicated by the virtual object. Can be given to the user (Patent Document 1).
JP 2006-146588 A

しかし、使用者が、仮想物体を重畳させた現実物体を掴もうとする場合に、自身の手と現実物体との距離感がわかりにくいという問題がある。また、使用者自身の体の一部がこの仮想物体によって隠蔽されてしまうという可能性もある。   However, when a user tries to grasp a real object on which a virtual object is superimposed, there is a problem that it is difficult to understand the distance between his / her hand and the real object. In addition, there is a possibility that a part of the user's own body is concealed by the virtual object.

このように、使用者が、仮想物体を重畳させた現実物体を掴もうとする行為は、仮想物体を重畳させていない現実物体を掴もうとする行為よりも困難なものとなっていた。   As described above, it is more difficult for the user to grab the real object on which the virtual object is superimposed than to act on the real object on which the virtual object is not superimposed.

本発明は以上の問題に鑑みてなされたものであり、仮想物体を重畳させた現実物体に対するユーザ操作をより容易にするための技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide a technique for facilitating a user operation on a real object on which a virtual object is superimposed.

本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.

即ち、撮像装置と表示装置とを有する頭部装着型表示装置を頭部に装着しているユーザの体の部位の位置を取得する第1の取得手段と、
前記撮像装置の位置姿勢を取得する第2の取得手段と、
前記撮像装置による撮像画像を取得する第3の取得手段と、
前記部位による操作対象となる物体の位置姿勢を取得する第4の取得手段と、
前記第4の取得手段が取得した位置姿勢を有する仮想物体を、前記第2の取得手段が取得した位置姿勢から見た場合の画像を仮想空間画像として生成する生成手段と、
前記生成手段が生成した仮想空間画像を、前記第3の取得手段が取得した撮像画像上に重畳させて前記表示装置に対して出力する出力手段とを備え、
前記生成手段は、
前記第1の取得手段が取得した位置と、前記第4の取得手段が取得した位置と、の間の距離に応じて、前記仮想空間画像の透明度を制御する
ことを特徴とする。
That is, a first acquisition unit that acquires a position of a body part of a user wearing a head-mounted display device having an imaging device and a display device on the head;
Second acquisition means for acquiring the position and orientation of the imaging device;
Third acquisition means for acquiring a captured image by the imaging device;
Fourth acquisition means for acquiring a position and orientation of an object to be operated by the part;
Generating means for generating, as a virtual space image, an image when the virtual object having the position and orientation acquired by the fourth acquisition means is viewed from the position and orientation acquired by the second acquisition means;
An output unit that superimposes the virtual space image generated by the generation unit on the captured image acquired by the third acquisition unit and outputs the image to the display device;
The generating means includes
The transparency of the virtual space image is controlled according to the distance between the position acquired by the first acquisition unit and the position acquired by the fourth acquisition unit.

本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.

即ち、撮像装置と表示装置とを有する頭部装着型表示装置を頭部に装着しているユーザの体の部位の位置を取得する第1の取得工程と、
前記撮像装置の位置姿勢を取得する第2の取得工程と、
前記撮像装置による撮像画像を取得する第3の取得工程と、
前記部位による操作対象となる物体の位置姿勢を取得する第4の取得工程と、
前記第4の取得工程で取得した位置姿勢を有する仮想物体を、前記第2の取得工程で取得した位置姿勢から見た場合の画像を仮想空間画像として生成する生成工程と、
前記生成工程で生成した仮想空間画像を、前記第3の取得工程で取得した撮像画像上に重畳させて前記表示装置に対して出力する出力工程とを備え、
前記生成工程では、
前記第1の取得工程で取得した位置と、前記第4の取得工程で取得した位置と、の間の距離に応じて、前記仮想空間画像の透明度を制御する
ことを特徴とする。
That is, a first acquisition step of acquiring a position of a body part of a user wearing a head-mounted display device having an imaging device and a display device on the head;
A second acquisition step of acquiring the position and orientation of the imaging device;
A third acquisition step of acquiring a captured image by the imaging device;
A fourth acquisition step of acquiring the position and orientation of the object to be operated by the part;
A generation step of generating an image when the virtual object having the position and orientation acquired in the fourth acquisition step is viewed from the position and orientation acquired in the second acquisition step as a virtual space image;
An output step of superimposing the virtual space image generated in the generation step on the captured image acquired in the third acquisition step and outputting it to the display device;
In the generating step,
The transparency of the virtual space image is controlled according to the distance between the position acquired in the first acquisition step and the position acquired in the fourth acquisition step.

本発明の構成によれば、仮想物体を重畳させた現実物体に対するユーザ操作をより容易にすることができる。   According to the configuration of the present invention, a user operation on a real object on which a virtual object is superimposed can be made easier.

以下、添付図面を参照し、本発明の好適な実施形態について詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

なお、以下説明する各実施形態の骨子は次の通りである。   The outline of each embodiment described below is as follows.

即ち、撮像装置と表示装置とを有する頭部装着型表示装置を頭部に装着しているユーザの体の部位の位置を取得する(第1の取得)。また、撮像装置の位置姿勢を取得する(第2の取得)。また、撮像装置による撮像画像を取得する(第3の取得)。また、上記部位による操作対象となる物体の位置姿勢を取得する(第4の取得)。そして、第4の取得によって取得した位置姿勢を有する仮想物体を、第2の取得によって取得した位置姿勢から見た場合の画像を仮想空間画像として生成する。そして生成した仮想空間画像を、第3の取得によって取得した撮像画像上に重畳させて表示装置に対して出力する。   That is, the position of the body part of the user wearing the head-mounted display device having the imaging device and the display device on the head is acquired (first acquisition). Further, the position and orientation of the imaging device are acquired (second acquisition). Also, a captured image by the imaging device is acquired (third acquisition). Further, the position and orientation of the object to be operated by the part are acquired (fourth acquisition). Then, an image when the virtual object having the position and orientation acquired by the fourth acquisition is viewed from the position and orientation acquired by the second acquisition is generated as a virtual space image. Then, the generated virtual space image is superimposed on the captured image acquired by the third acquisition and output to the display device.

その際、第1の取得によって取得した位置と、第4の取得によって取得した位置と、の間の距離に応じて、仮想空間画像の透明度を制御する。   At that time, the transparency of the virtual space image is controlled according to the distance between the position acquired by the first acquisition and the position acquired by the fourth acquisition.

以下の実施形態では、係る骨子を具体的に説明すべく、上記「部位」を観察者の「手」、上記「物体」を「金槌」とする。もちろん、「部位」や「物体」が他のものであっても、係る骨子は同じである。   In the following embodiments, the “part” is referred to as the “hand” of the observer, and the “object” is referred to as “the hammer” in order to specifically describe the outline. Of course, even if the “part” and “object” are other things, the gist is the same.

[第1の実施形態]
図1は、本実施形態に係るシステムの機能構成を示すブロック図である。図1に示す如く、本実施形態に係るシステムは、システム制御部101と、ビデオシースルー型HMD131(以下、単にHMD131と呼称する)と、で構成されている。
[First Embodiment]
FIG. 1 is a block diagram showing a functional configuration of a system according to the present embodiment. As shown in FIG. 1, the system according to the present embodiment includes a system control unit 101 and a video see-through HMD 131 (hereinafter simply referred to as HMD 131).

先ず、HMD131について説明する。HMD131は頭部装着型表示装置の一例としてのものであって、周知の如く、ユーザの頭部に装着するものである。   First, the HMD 131 will be described. The HMD 131 is an example of a head-mounted display device, and as is well known, is mounted on the user's head.

左カメラ132は、HMD131を頭部に装着したユーザの左目(視点)から見える現実空間の動画像を撮像する装置であり、撮像した各フレームの画像(左目用現実空間画像)は、左現実画像出力部134に送出される。左現実画像出力部134は、左カメラ132から受けた左目用現実空間画像をシステム制御部101に対して送出する。   The left camera 132 is a device that captures a moving image of the real space that can be seen from the left eye (viewpoint) of the user wearing the HMD 131 on the head. The captured image of each frame (the real space image for the left eye) is a left real image. It is sent to the output unit 134. The left reality image output unit 134 sends the left eye reality space image received from the left camera 132 to the system control unit 101.

右カメラ133は、HMD131を頭部に装着したユーザの右目(視点)から見える現実空間の動画像を撮像する装置であり、撮像した各フレームの画像(右目用現実空間画像)は、右現実画像出力部135に送出される。右現実画像出力部135は、右カメラ133から受けた右目用現実空間画像をシステム制御部101に対して送出する。   The right camera 133 is a device that captures a moving image of the real space that can be seen from the right eye (viewpoint) of the user wearing the HMD 131 on the head. The captured image of each frame (the real space image for the right eye) is a right real image. It is sent to the output unit 135. The right reality image output unit 135 sends the right eye reality space image received from the right camera 133 to the system control unit 101.

複合現実感画像入力部136、画像表示部137については後述する。   The mixed reality image input unit 136 and the image display unit 137 will be described later.

次に、システム制御部101について説明する。システム制御部101は、ビデオシースルー型HMD131を頭部に装着するユーザ(観察者)に対して提示する画像を生成する処理を行う装置である。   Next, the system control unit 101 will be described. The system control unit 101 is a device that performs processing for generating an image to be presented to a user (observer) wearing the video see-through HMD 131 on the head.

現実画像入力部102は、上記左現実画像出力部134、右現実画像出力部135のそれぞれから送出された左目用現実空間画像、右目用現実空間画像を受ける。そして受けたそれぞれの画像を、画像合成部103、カメラ位置姿勢取得部105、ハンド位置姿勢取得部107、実物位置姿勢取得部109、のそれぞれに送出する。   The real image input unit 102 receives the left-eye real space image and the right-eye real space image transmitted from the left real image output unit 134 and the right real image output unit 135, respectively. The received images are sent to the image composition unit 103, the camera position / posture acquisition unit 105, the hand position / posture acquisition unit 107, and the actual position / posture acquisition unit 109, respectively.

カメラ位置姿勢取得部105は、右目用現実空間画像を取得すると、係る画像を用いて、右カメラ133の位置姿勢を計算する。同様に、左目用現実空間を取得すると、係る画像を用いて、左カメラ132の位置姿勢を計算する。   When acquiring the right-eye real space image, the camera position and orientation acquisition unit 105 calculates the position and orientation of the right camera 133 using the image. Similarly, when the real space for the left eye is acquired, the position and orientation of the left camera 132 are calculated using the image.

ここで、カメラが撮像した画像を用いて、このカメラの位置姿勢を求める手法については従来技術である。即ち、現実空間中における配置位置が既知のマーカ若しくは自然特徴を含む現実空間画像を取得すると、係る現実空間画像中におけるマーカ若しくは自然特徴の座標位置を検出する。そして、検出した座標位置と、対応する配置位置とを用いて、後は三角測量の分野でも広く用いられている計算技術を用いれば、係る現実空間画像を撮像したカメラの位置姿勢は求めることができる。もちろん、画像を用いて係る画像を撮像したカメラの位置姿勢を計算する技術については様々なものがあり、本実施形態では、何れを用いてもよい。   Here, a technique for obtaining the position and orientation of the camera using an image captured by the camera is a conventional technique. That is, when a real space image including a marker or a natural feature whose arrangement position is known in the real space is acquired, the coordinate position of the marker or the natural feature in the real space image is detected. Then, by using the detected coordinate position and the corresponding arrangement position, and then using a calculation technique widely used in the field of triangulation, the position and orientation of the camera that captured the real space image can be obtained. it can. Of course, there are various techniques for calculating the position and orientation of the camera that captured the image using the image, and any of these may be used in the present embodiment.

なお、カメラの位置姿勢を計算する手法についてはこのほかにもあり、例えば、センサシステムを用いた手法もある。例えば、磁気センサシステムをカメラ位置姿勢取得部105に接続した場合を考える。この場合、磁界を発生するトランスミッタを現実空間中の所定の位置に配置すると共に、カメラには係る磁界中における自身の位置姿勢に応じた磁界の変化を検知するレシーバを取り付ける。レシーバが検知した結果を示す信号は、センサ制御装置と呼ばれる装置に入力され、センサ制御装置は、係る信号に基づいて、センサ座標系におけるレシーバの位置姿勢を求める。そしてセンサ制御装置は、求めた位置姿勢をカメラ位置姿勢取得部105に送出する。これにより、カメラ位置姿勢取得部105は、センサ座標系におけるレシーバの位置姿勢を、カメラの位置姿勢として取得することができる。ここで、センサ座標系とは、トランスミッタの位置を原点とし、係る原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系である。   There are other methods for calculating the position and orientation of the camera. For example, there is a method using a sensor system. For example, consider a case where a magnetic sensor system is connected to the camera position and orientation acquisition unit 105. In this case, a transmitter that generates a magnetic field is arranged at a predetermined position in the real space, and a receiver that detects a change in the magnetic field according to its position and orientation in the magnetic field is attached to the camera. A signal indicating the result detected by the receiver is input to a device called a sensor control device, and the sensor control device obtains the position and orientation of the receiver in the sensor coordinate system based on the signal. Then, the sensor control apparatus sends the obtained position and orientation to the camera position and orientation acquisition unit 105. Thereby, the camera position and orientation acquisition unit 105 can acquire the position and orientation of the receiver in the sensor coordinate system as the position and orientation of the camera. Here, the sensor coordinate system is a coordinate system in which the position of the transmitter is the origin, and three axes orthogonal to each other at the origin are the x axis, the y axis, and the z axis.

なお、カメラ位置姿勢取得部105は、取得した位置姿勢をどのような座標系に変換しても良い。   The camera position and orientation acquisition unit 105 may convert the acquired position and orientation into any coordinate system.

なお、以上説明した、カメラの位置姿勢を取得するための技術については周知であるので、これ以上の説明は省略する。   In addition, since the technique for acquiring the position and orientation of the camera described above is well known, further description is omitted.

ハンド位置姿勢取得部107は、右目用現実空間画像、左目用現実空間と、カメラ位置姿勢取得部105が取得した位置姿勢とを用いて、ユーザの手の位置を取得する。例えば、ユーザの手にマーカを貼り付けておき、係るマーカを含む手の撮像画像を用いて、この手の位置を求める。なお、係る技術についても周知であるので、これについての詳細な説明は省略する。また、センサを用いて手の位置を取得しても良く、その場合における取得方法については、上述した、カメラの位置姿勢を取得する方法と同じである。   The hand position / posture acquisition unit 107 acquires the position of the user's hand using the right-eye real space image, the left-eye real space, and the position / posture acquired by the camera position / posture acquisition unit 105. For example, a marker is pasted on the user's hand, and the position of the hand is obtained using a captured image of the hand including the marker. In addition, since the technique concerned is also well-known, the detailed description about this is abbreviate | omitted. Further, the position of the hand may be acquired using a sensor, and the acquisition method in that case is the same as the method for acquiring the position and orientation of the camera described above.

実物位置姿勢取得部109は、右目用現実空間画像、左目用現実空間と、カメラ位置姿勢取得部105が取得した位置姿勢とを用いて、ユーザの手による操作対象としての現実物体(ここでは金槌)の位置を取得する。例えば、金槌にマーカを貼り付けておき、係るマーカを含む金槌の撮像画像を用いて、この金槌の位置を求める。なお、係る技術についても周知であるので、これについての詳細な説明は省略する。また、センサを用いて金槌の位置を取得しても良く、その場合における取得方法については、上述した、カメラの位置姿勢を取得する方法と同じである。   The real position / orientation acquisition unit 109 uses the real space image for the right eye, the real space for the left eye, and the position / orientation acquired by the camera position / orientation acquisition unit 105 as a real object (in this case, a hammer) ) Position. For example, a marker is affixed to a hammer and the position of this hammer is obtained using a captured image of the hammer including the marker. In addition, since the technique concerned is also well-known, the detailed description about this is abbreviate | omitted. Further, the position of the hammer may be acquired using a sensor, and the acquisition method in that case is the same as the method for acquiring the position and orientation of the camera described above.

仮想世界生成部106は先ず、実物位置姿勢取得部109が求めた位置姿勢に、金槌に重畳させる仮想物体を配置する。なお、その他にも仮想空間中に配置すべき仮想物体があれば、それについても配置する。このようにして仮想空間を構築する。   First, the virtual world generation unit 106 arranges a virtual object to be superimposed on the hammer on the position and orientation obtained by the actual position and orientation acquisition unit 109. If there are other virtual objects to be placed in the virtual space, they are also placed. In this way, a virtual space is constructed.

そして、カメラ位置姿勢取得部105が求めた左カメラ132の位置姿勢に、仮想空間を観察する視点を配置し、係る視点から見える仮想空間の画像を、左目用仮想空間画像として生成する。所定の位置姿勢を有する視点から見える仮想空間の画像を生成するための技術については周知であるので、これについての説明は省略する。一方、カメラ位置姿勢取得部105が求めた右カメラ133の位置姿勢に、仮想空間を観察する視点を配置し、係る視点から見える仮想空間の画像を、右目用仮想空間画像として生成する。   Then, a viewpoint for observing the virtual space is arranged at the position and orientation of the left camera 132 obtained by the camera position and orientation acquisition unit 105, and an image of the virtual space seen from the viewpoint is generated as a left-eye virtual space image. Since a technique for generating an image of a virtual space that can be seen from a viewpoint having a predetermined position and orientation is well known, a description thereof will be omitted. On the other hand, a viewpoint for observing the virtual space is arranged at the position and orientation of the right camera 133 obtained by the camera position and orientation acquisition unit 105, and an image of the virtual space seen from the viewpoint is generated as the right-eye virtual space image.

仮想世界生成部106は、生成した左目用仮想空間画像、右目用仮想空間画像のそれぞれを、画像合成部103に対して送出する。   The virtual world generation unit 106 sends each of the generated left-eye virtual space image and right-eye virtual space image to the image composition unit 103.

画像合成部103は、現実画像入力部102から受けた右目用現実空間画像上に、右目用仮想空間画像を重畳させた右目用合成画像を生成する。同様に、画像合成部103は、現実画像入力部102から受けた左目用現実空間画像上に、左目用仮想空間画像を重畳させた左目用合成画像を生成する。そして、生成した右目用合成画像、左目用合成画像のそれぞれを、複合現実感画像出力部104に対して送出する。   The image composition unit 103 generates a right-eye composite image in which the right-eye virtual space image is superimposed on the right-eye real space image received from the real image input unit 102. Similarly, the image composition unit 103 generates a left-eye composite image in which the left-eye virtual space image is superimposed on the left-eye real space image received from the real image input unit 102. Then, each of the generated composite image for the right eye and composite image for the left eye is sent to the mixed reality image output unit 104.

複合現実感画像出力部104は、受けた右目用合成画像、左目用合成画像のそれぞれを、HMD131が有する複合現実感画像入力部136に対して送出する。   The mixed reality image output unit 104 sends the received right-eye composite image and left-eye composite image to the mixed reality image input unit 136 of the HMD 131.

複合現実感画像入力部136は、受けた右目用合成画像、左目用合成画像のそれぞれを、画像表示部137に対して送出する。   The mixed reality image input unit 136 sends each of the received right-eye composite image and left-eye composite image to the image display unit 137.

画像表示部137は、右目用の表示部と左目用の表示部とを有し、右目用の表示部と左目用の表示部とはそれぞれ、HMD131を頭部に装着したユーザの右目、左目の眼前に位置するように、HMD131に対して取り付けられている。従って、複合現実感画像入力部136から受けた右目用合成画像は、右目用の表示部に送出し、左目用合成画像は、左目用の表示部に送出する。   The image display unit 137 includes a display unit for the right eye and a display unit for the left eye. The display unit for the right eye and the display unit for the left eye are respectively the right eye and the left eye of the user wearing the HMD 131 on the head. It is attached to the HMD 131 so as to be located in front of the eyes. Therefore, the composite image for the right eye received from the mixed reality image input unit 136 is sent to the display unit for the right eye, and the composite image for the left eye is sent to the display unit for the left eye.

これにより、HMD131を頭部に装着したユーザの左目の眼前には、左目用合成画像が提示されることになるし、右目の眼前には、右目用合成画像が提示されることになる。   As a result, the left eye composite image is presented in front of the left eye of the user wearing the HMD 131 on the head, and the right eye composite image is presented in front of the right eye.

以上が、本実施形態に係るシステムの基本的な動作であるが、上述したように、本実施形態に係るシステムは、ユーザの手の位置が、金槌に近づくに従って、金槌に重畳させる仮想物体の画像の透明度を上げる処理を行う。   The above is the basic operation of the system according to the present embodiment. As described above, the system according to the present embodiment has a virtual object to be superimposed on the hammer as the position of the user's hand approaches the hammer. Performs processing to increase the transparency of the image.

図2は、現実物体としての金槌の一例を示す図である。図3は、金槌に重畳させる仮想物体の一例を示す図である。従って、本実施形態では、図2に示した現実物体としての金槌に、図3に示した仮想物体の画像を重畳させることになる。また、本実施形態では、仮想空間中に、図4に示すような大型の仮想物体を配置する。図4は、仮想空間中に配置する大型の仮想物体の一例を示す図である。   FIG. 2 is a diagram illustrating an example of a hammer as a real object. FIG. 3 is a diagram illustrating an example of a virtual object to be superimposed on a hammer. Therefore, in the present embodiment, the image of the virtual object shown in FIG. 3 is superimposed on the hammer as the real object shown in FIG. In this embodiment, a large virtual object as shown in FIG. 4 is arranged in the virtual space. FIG. 4 is a diagram illustrating an example of a large virtual object arranged in the virtual space.

以下の説明では、ユーザは、手に現実物体としての金槌を持ち、図4に示す仮想物体に対するインタラクションを計るものとする。もちろん、ユーザはHMD131を介して手を見れば、図2に示した金槌上に図3に示した仮想物体の画像が見えることになる。   In the following description, it is assumed that the user holds a hammer as a real object in his hand and measures the interaction with the virtual object shown in FIG. Of course, if the user looks at his / her hand through the HMD 131, the image of the virtual object shown in FIG. 3 can be seen on the hammer shown in FIG.

図5は、HMD131を頭部に装着したユーザ501が金槌500を取りに行く様子を、係るユーザ以外の第三者が観察した場合の様子を示す図である。   FIG. 5 is a diagram illustrating a state where a third party other than the user observes a state in which the user 501 wearing the HMD 131 goes to pick up the hammer 500.

図6は、HMD131を頭部に装着したユーザが金槌を取りに行く様子を、同じ空間を観察可能な第三者が観察した場合の様子を示す図である。即ち、ユーザ501には、金槌上に重畳された仮想物体601と、大型の仮想物体602とが見えている。図7は、ユーザ501の視点から見える空間の様子を示す図である。   FIG. 6 is a diagram illustrating a state where a third person who can observe the same space observes the state where the user wearing the HMD 131 goes to pick up the hammer. That is, the user 501 can see the virtual object 601 superimposed on the metal hammer and the large virtual object 602. FIG. 7 is a diagram illustrating a state of the space that can be seen from the viewpoint of the user 501.

ここで、ユーザ501が金槌500を手に掴もうとすべく、手を仮想物体601の位置にのばしても、遠近感が分かりずらいので、手が仮想物体601に届いたと感じても、実際には図8に示す如く、未だ手801は金槌500の手前に位置していることもある。   Here, even if the user 501 tries to grasp the hammer 500 with his hand, even if he extends his hand to the position of the virtual object 601, it is difficult to understand the perspective, so even if he feels that his hand has reached the virtual object 601, As shown in FIG. 8, the hand 801 may still be located in front of the hammer 500.

本実施形態では、係る問題を解消すべく、金槌500と手801との間の距離が小さくなるほど、金槌500に重畳させる仮想物体601の透明度を上げる。更には、金槌500と手801との間の距離が小さくなるほど、金槌500の周囲に描画されている仮想空間の画像をマスクし、金槌500の周囲には、現実空間しか見えないようにする。これにより、ユーザ501に、実際の自分の手801の位置と金槌500の位置とを把握させ、それぞれの位置間の距離を把握させることを容易にする。   In the present embodiment, in order to solve the problem, the transparency of the virtual object 601 to be superimposed on the hammer 500 is increased as the distance between the hammer 500 and the hand 801 becomes smaller. Further, as the distance between the hammer 500 and the hand 801 becomes smaller, the virtual space image drawn around the hammer 500 is masked so that only the real space can be seen around the hammer 500. This makes it easy for the user 501 to grasp the actual position of his / her hand 801 and the position of the hammer 500 and to grasp the distance between the positions.

図9は、手801を金槌500の位置に近づけた場合に、ユーザ501に対して提示する画像を示す図である。   FIG. 9 is a diagram illustrating an image to be presented to the user 501 when the hand 801 is brought close to the position of the hammer 500.

また、ユーザ501の手801が金槌500を掴んだ状態(例えば、手801の位置と金槌500の位置とが、予め定めた閾値以下となった状態)が、予め定められた時間(例えば、2秒)以上経過した場合には、次のような処理を行う。即ち、金槌500に重畳させている仮想物体601の画像の透明度を元に戻し(透明度を不透明にする)、更に、上記マスク処理もキャンセルする。これにより、ユーザ501がその手801に金槌500を掴んだ後には、ユーザ501は、金槌500を用いて、大型の仮想物体602とのインタラクションを行うことができる。   In addition, a state in which the hand 801 of the user 501 holds the hammer 500 (for example, a state in which the position of the hand 801 and the position of the hammer 500 are equal to or less than a predetermined threshold) is a predetermined time (for example, 2 If more than (seconds) have elapsed, the following processing is performed. That is, the transparency of the image of the virtual object 601 superimposed on the hammer 500 is restored (transparency is made opaque), and the mask process is also canceled. Thereby, after the user 501 grasps the hammer 500 with his hand 801, the user 501 can interact with the large virtual object 602 using the hammer 500.

図10は、システム制御部101が行う、現実空間の画像と仮想空間の画像との合成画像を、HMD131に対して送出する為の一連の処理(画像処理)のフローチャートである。   FIG. 10 is a flowchart of a series of processing (image processing) performed by the system control unit 101 for sending a composite image of a real space image and a virtual space image to the HMD 131.

ステップS1001では、現実画像入力部102は、左現実画像出力部134、右現実画像出力部135のそれぞれから送出された左目用現実空間、右目用現実空間画像を受ける。そして受けたそれぞれの画像を、画像合成部103、カメラ位置姿勢取得部105、ハンド位置姿勢取得部107、実物位置姿勢取得部109、のそれぞれに送出する。   In step S1001, the real image input unit 102 receives the left-eye real space image and the right-eye real space image transmitted from the left real image output unit 134 and the right real image output unit 135, respectively. The received images are sent to the image composition unit 103, the camera position / posture acquisition unit 105, the hand position / posture acquisition unit 107, and the actual position / posture acquisition unit 109, respectively.

ステップS1002では、カメラ位置姿勢取得部105は、右目用現実空間画像を取得すると、係る画像を用いて、右カメラ133の位置姿勢を計算する。同様に、左目用現実空間を取得すると、係る画像を用いて、左カメラ132の位置姿勢を計算する。   In step S <b> 1002, when the camera position and orientation acquisition unit 105 acquires the right-eye real space image, the camera position and orientation acquisition unit 105 calculates the position and orientation of the right camera 133 using the image. Similarly, when the real space for the left eye is acquired, the position and orientation of the left camera 132 are calculated using the image.

次にステップS1003では、ハンド位置姿勢取得部107は、上述のようにして、ユーザの手の位置を取得する。また、実物位置姿勢取得部109は、上述のようにして、金槌の位置を取得する。   In step S1003, the hand position / posture acquisition unit 107 acquires the position of the user's hand as described above. Further, the actual position / posture acquisition unit 109 acquires the position of the hammer as described above.

ステップS1004では、仮想世界生成部106は、ステップS1003で取得した手の位置と、金槌の位置と、の間の距離Dを求める。係る距離Dが閾値θ1以下であれば処理はステップS1005を介してステップS1009に進み、閾値θ1より大きければ処理はステップS1005を介してステップS1006に進む。   In step S1004, the virtual world generation unit 106 obtains a distance D between the hand position acquired in step S1003 and the position of the hammer. If the distance D is less than or equal to the threshold θ1, the process proceeds to step S1009 via step S1005, and if greater than the threshold θ1, the process proceeds to step S1006 via step S1005.

ステップS1006では、仮想世界生成部106は先ず、実物位置姿勢取得部109が求めた位置姿勢に、金槌に重畳させる仮想物体を配置する。なお、その他にも仮想空間中に配置すべき仮想物体があれば、それについても配置する。このようにして仮想空間を構築する。   In step S <b> 1006, the virtual world generation unit 106 first arranges a virtual object to be superimposed on the hammer on the position and orientation obtained by the real position and orientation acquisition unit 109. If there are other virtual objects to be placed in the virtual space, they are also placed. In this way, a virtual space is constructed.

そして、カメラ位置姿勢取得部105が求めた左カメラ132の位置姿勢に、仮想空間を観察する視点を配置し、係る視点から見える仮想空間の画像を、左目用仮想空間画像として生成する。一方、カメラ位置姿勢取得部105が求めた右カメラ133の位置姿勢に、仮想空間を観察する視点を配置し、係る視点から見える仮想空間の画像を、右目用仮想空間画像として生成する。仮想世界生成部106は、生成した左目用仮想空間画像、右目用仮想空間画像のそれぞれを、画像合成部103に対して送出する。   Then, a viewpoint for observing the virtual space is arranged at the position and orientation of the left camera 132 obtained by the camera position and orientation acquisition unit 105, and an image of the virtual space seen from the viewpoint is generated as a left-eye virtual space image. On the other hand, a viewpoint for observing the virtual space is arranged at the position and orientation of the right camera 133 obtained by the camera position and orientation acquisition unit 105, and an image of the virtual space seen from the viewpoint is generated as the right-eye virtual space image. The virtual world generation unit 106 sends each of the generated left-eye virtual space image and right-eye virtual space image to the image composition unit 103.

ステップS1007では、画像合成部103は、現実画像入力部102から受けた右目用現実空間画像上に、右目用仮想空間画像を重畳させた右目用合成画像を生成する。同様に、画像合成部103は、現実画像入力部102から受けた左目用現実空間画像上に、左目用仮想空間画像を重畳させた左目用合成画像を生成する。そして、生成した右目用合成画像、左目用合成画像のそれぞれを、複合現実感画像出力部104に対して送出する。   In step S <b> 1007, the image composition unit 103 generates a right-eye composite image in which the right-eye virtual space image is superimposed on the right-eye real space image received from the real image input unit 102. Similarly, the image composition unit 103 generates a left-eye composite image in which the left-eye virtual space image is superimposed on the left-eye real space image received from the real image input unit 102. Then, each of the generated composite image for the right eye and composite image for the left eye is sent to the mixed reality image output unit 104.

ステップS1008では、複合現実感画像出力部104は、受けた右目用合成画像、左目用合成画像のそれぞれを、HMD131が有する複合現実感画像入力部136に対して送出する。   In step S <b> 1008, the mixed reality image output unit 104 sends the received right-eye composite image and left-eye composite image to the mixed reality image input unit 136 included in the HMD 131.

一方、ステップS1009では、仮想世界生成部106は、これから生成しようとする「金槌に重畳させる仮想物体」の透明度を上げる。実際には、係る仮想物体を構成する各画素のアルファ値を上げることで、透明度を上げる。なお、距離Dに対してどの程度透明度を上げるのかについては特に限定するものではないが、距離Dが小さくなるほど透明度を上げ、距離Dが大きくなるほど透明度を下げるような、距離Dと透明度の関係であればよい。   On the other hand, in step S1009, the virtual world generation unit 106 increases the transparency of the “virtual object to be superimposed on the hammer” to be generated. Actually, the transparency is increased by increasing the alpha value of each pixel constituting the virtual object. The degree to which the transparency is increased with respect to the distance D is not particularly limited, but the relationship between the distance D and the transparency is such that the transparency increases as the distance D decreases and decreases as the distance D increases. I just need it.

次に、距離Dが閾値θ2(<θ1)以下であれば、処理はステップS1010を介してステップS1011に進み、閾値θ2よりおおきければ、処理はステップS1010を介してステップS1006に進む。このとき、ステップS1006において、「金槌に重畳させる仮想物体」を生成する場合には、その透明度は、ステップS1009で設定されたものとなる。   Next, if the distance D is equal to or smaller than the threshold θ2 (<θ1), the process proceeds to step S1011 via step S1010, and if greater than the threshold θ2, the process proceeds to step S1006 via step S1010. At this time, in the case where a “virtual object to be superimposed on the hammer” is generated in step S1006, the transparency is set in step S1009.

ステップS1011では、マスク領域作成部108は、画像合成部103に対して、以降に行うステップS1007における合成処理で「金槌に重畳させる仮想物体」の周囲については合成対象とせず、現実空間画像を用いるように指示する。即ち、図9に示す如く、仮想空間画像上で、「金槌に重畳させる仮想物体」の描画領域周辺については、現実空間画像に対して何も重畳させない。   In step S1011, the mask area creating unit 108 uses the real space image for the image compositing unit 103 instead of compositing the surroundings of the “virtual object to be superimposed on the hammer” in the compositing process performed in step S1007. To instruct. That is, as shown in FIG. 9, nothing is superimposed on the real space image around the drawing area of the “virtual object to be superimposed on the hammer” on the virtual space image.

次に、距離Dが閾値θ3(<θ2)以下で、且つ距離Dが閾値θ3(<θ2)以下である状態が連続して予め定められた時間以上経過した、という条件が満たされた場合には、処理をステップS1012を介してステップS1013に進む。一方、係る条件が満たされていない場合には、処理をステップS1012を介してステップS1006に進める。   Next, when the condition that the distance D is equal to or less than the threshold value θ3 (<θ2) and the distance D is equal to or less than the threshold value θ3 (<θ2) continuously elapses for a predetermined time is satisfied. Advances the process to step S1013 via step S1012. On the other hand, if the condition is not satisfied, the process proceeds to step S1006 via step S1012.

ここで、係る条件は、要は、ユーザが自身の手で現実物体としての金槌を握っているか否かを判断するためのものである。従って、ここで用いている閾値θ3とは、ユーザが現実物体としての金槌を手に持ったときに、手と現実物体としての金槌との距離に近い値であることが好ましい。   Here, the condition is basically for determining whether or not the user is holding a hammer as a real object with his / her hand. Therefore, the threshold θ3 used here is preferably a value close to the distance between the hand and the real hammer as a real object when the user holds the hammer as a real object.

処理がステップS1012からステップS1006に進んだ場合、ステップS1006では上述のようにして仮想空間画像を生成し、ステップS1007では上述のようにして合成処理を行う。しかし、ステップS1007では上述のように、画像合成部103は、現実空間画像上に仮想空間画像を重畳させる場合に、「金槌に重畳させる仮想物体」の周囲については現実空間画像をそのまま用いる。これにより、例えば、図9に示すような、「現実物体としての金槌」の周囲には他の仮想物体の画像が重畳されていない合成画像を得ることができる。   When the process proceeds from step S1012 to step S1006, the virtual space image is generated as described above in step S1006, and the composition process is performed as described above in step S1007. However, in step S1007, as described above, when superimposing the virtual space image on the real space image, the image composition unit 103 uses the real space image as it is around the “virtual object to be superimposed on the hammer”. Thereby, for example, as shown in FIG. 9, it is possible to obtain a composite image in which images of other virtual objects are not superimposed around the “gold bar as a real object”.

一方、ステップS1013では、ユーザは手に現実物体としての金槌を持ったのであるから、もう係る現実物体としての金槌上に仮想物体を重畳表示させても良いので、仮想世界生成部106は、係る仮想物体の画像の透明度を元に戻す。更に仮想世界生成部106は、上記マスク領域作成部108に対して、マスク指示を出すのをキャンセルさせる。   On the other hand, in step S1013, since the user has a hammer as a real object in his hand, a virtual object may be superimposed on the hammer as a real object. Restore the transparency of the virtual object image. Further, the virtual world generation unit 106 causes the mask area creation unit 108 to cancel issuing a mask instruction.

なお、本実施形態では、最初に説明したように、ユーザの部位として「手」を用いているが、「手」以外、例えば「足」であっても良い。   In this embodiment, as described first, “hand” is used as the user's part, but other than “hand”, for example, “foot” may be used.

[第2の実施形態]
第1の実施形態では、図1に示したシステム制御部101を構成する各部は全て暗にハードウェアで構成されているものとして説明した。しかし、その一部をソフトウェアでもって構成しても良い。この場合、システム制御部101は、係るソフトウェアを実行可能なPC(パーソナルコンピュータ)等のコンピュータで構成しても良い。
[Second Embodiment]
In the first embodiment, the description has been made assuming that all the units constituting the system control unit 101 illustrated in FIG. 1 are implicitly configured by hardware. However, some of them may be configured with software. In this case, the system control unit 101 may be configured by a computer such as a PC (personal computer) that can execute the software.

図11は、システム制御部101に適用可能なコンピュータのハードウェア構成例を示すブロック図である。   FIG. 11 is a block diagram illustrating a hardware configuration example of a computer applicable to the system control unit 101.

1101はCPUで、RAM1102やROM1103に格納されているプログラムやデータを用いてコンピュータ全体の制御を行うと共に、コンピュータを適用するシステム制御部101が行う上述の各処理を実行する。   A CPU 1101 controls the entire computer using programs and data stored in the RAM 1102 and the ROM 1103, and executes the above-described processes performed by the system control unit 101 to which the computer is applied.

1102はRAMで、外部記憶装置1106からロードされたプログラムやデータ、I/F(インターフェース)1107を介してHMD131から受信した画像データなどを一時的に記憶するためのエリアを有する。更に、RAM1102は、CPU1101が各種の処理を実行する際に用いるワークエリアも有する。即ち、RAM1102は各種のエリアを適宜提供することができる。   Reference numeral 1102 denotes a RAM having an area for temporarily storing programs and data loaded from the external storage device 1106, image data received from the HMD 131 via the I / F (interface) 1107, and the like. Further, the RAM 1102 also has a work area used when the CPU 1101 executes various processes. That is, the RAM 1102 can provide various areas as appropriate.

1103はROMで、コンピュータの設定データや、ブートプログラムなどを格納する。   A ROM 1103 stores computer setting data, a boot program, and the like.

1104は操作部で、キーボードやマウスなどにより構成されており、コンピュータの操作者が操作することで、各種の指示をCPU1101に対して入力することができる。   An operation unit 1104 includes a keyboard, a mouse, and the like, and various instructions can be input to the CPU 1101 by an operation of a computer operator.

1105は表示部で、CRTや液晶画面などにより構成されており、CPU1101による処理結果を画像や文字などでもって表示することができる。   A display unit 1105 includes a CRT, a liquid crystal screen, and the like, and can display a processing result by the CPU 1101 using an image, text, or the like.

1106は外部記憶装置で、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置1106内には、OS(オペレーティングシステム)や、システム制御部101が行うものとして説明した上述の各処理をCPU1101に実行させるためのプログラムやデータが保存されている。   An external storage device 1106 is a large-capacity information storage device represented by a hard disk drive device. The external storage device 1106 stores an OS (operating system) and programs and data for causing the CPU 1101 to execute the above-described processes described as being performed by the system control unit 101.

係るプログラムには、カメラ位置姿勢取得部105、ハンド位置姿勢取得部107、実物位置姿勢取得部109、マスク領域作成部108、仮想世界生成部106、画像合成部103の機能をCPU1101に実行させるためのプログラムも含まれている。   This program is for causing the CPU 1101 to execute the functions of the camera position and orientation acquisition unit 105, the hand position and orientation acquisition unit 107, the actual position and orientation acquisition unit 109, the mask area creation unit 108, the virtual world generation unit 106, and the image composition unit 103. The program is also included.

また、係るデータには、仮想空間を構成する各仮想物体のデータも含まれている。   In addition, the data includes data of each virtual object constituting the virtual space.

外部記憶装置1106内に保存されているプログラムやデータは、CPU1101による制御に従って適宜RAM1102にロードされる。そしてCPU1101はこのロードされたプログラムやデータを用いて処理を実行することで、本コンピュータは、システム制御部101が行うものとして上述した各処理を実行することになる。   Programs and data stored in the external storage device 1106 are appropriately loaded into the RAM 1102 under the control of the CPU 1101. The CPU 1101 executes processing using the loaded program and data, so that the computer executes each processing described above as being performed by the system control unit 101.

1107はI/Fで、ここには上記HMD131が接続される。これにより、本コンピュータは、HMD131が有する左現実画像出力部134、右現実画像出力部135から送出される画像のデータをこのI/F1107を介して受信することができる。更に、本コンピュータは、このI/F1107を介して、右目用合成画像、左目用合成画像をHMD131に対して送信することができる。即ち、I/F1107は、図1に示した、現実画像入力部102、複合現実感画像出力部104として機能する。   Reference numeral 1107 denotes an I / F, to which the HMD 131 is connected. As a result, the computer can receive image data sent from the left reality image output unit 134 and the right reality image output unit 135 of the HMD 131 via the I / F 1107. Further, the computer can transmit the composite image for the right eye and the composite image for the left eye to the HMD 131 via the I / F 1107. In other words, the I / F 1107 functions as the real image input unit 102 and the mixed reality image output unit 104 shown in FIG.

1108は上述の各部を繋ぐバスである。   A bus 1108 connects the above-described units.

[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, an operating system (OS) or the like running on the computer performs part or all of the actual processing based on the instruction of the program code. Needless to say, the process includes the case where the functions of the above-described embodiments are realized.

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, it is assumed that the program code read from the recording medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU included in the function expansion card or function expansion unit performs part or all of the actual processing, and the function of the above-described embodiment is realized by the processing. Needless to say.

本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.

本発明の第1の実施形態に係るシステムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the system which concerns on the 1st Embodiment of this invention. 現実物体としての金槌の一例を示す図である。It is a figure which shows an example of the hammer as a real object. 金槌に重畳させる仮想物体の一例を示す図である。It is a figure which shows an example of the virtual object superimposed on a hammer. 仮想空間中に配置する大型の仮想物体の一例を示す図である。It is a figure which shows an example of the large sized virtual object arrange | positioned in virtual space. HMD131を頭部に装着したユーザ501が金槌500を取りに行く様子を、係るユーザ以外の第三者が観察した場合の様子を示す図である。It is a figure which shows a mode when the third party other than the said user observes a mode that the user 501 with which HMD131 was mounted | worn is going to pick up the hammer 500. HMD131を頭部に装着したユーザが金槌を取りに行く様子を、同じ空間を観察可能な第三者が観察した場合の様子を示す図である。It is a figure which shows a mode when the third person who can observe the same space observes a mode that the user with which HMD131 was mounted | worn on the head goes to take a hammer. ユーザ501の視点から見える空間の様子を示す図である。It is a figure which shows the mode of the space seen from a user's 501 viewpoint. 手801と金槌500との位置関係を示す図である。It is a figure which shows the positional relationship of the hand 801 and the hammer 500. 手801を金槌500の位置に近づけた場合に、ユーザ501に対して提示する画像を示す図である。It is a figure which shows the image shown with respect to the user 501 when the hand 801 is brought close to the position of the hammer 500. システム制御部101が行う、現実空間の画像と仮想空間の画像との合成画像を、HMD131に対して送出する為の一連の処理のフローチャートである。10 is a flowchart of a series of processing performed by the system control unit 101 for sending a composite image of a real space image and a virtual space image to the HMD 131. システム制御部101に適用可能なコンピュータのハードウェア構成例を示すブロック図である。FIG. 2 is a block diagram illustrating an exemplary hardware configuration of a computer applicable to the system control unit 101.

Claims (8)

撮像装置と表示装置とを有する頭部装着型表示装置を頭部に装着しているユーザの体の部位の位置を取得する第1の取得手段と、
前記撮像装置の位置姿勢を取得する第2の取得手段と、
前記撮像装置による撮像画像を取得する第3の取得手段と、
前記部位による操作対象となる物体の位置姿勢を取得する第4の取得手段と、
前記第4の取得手段が取得した位置姿勢を有する仮想物体を、前記第2の取得手段が取得した位置姿勢から見た場合の画像を仮想空間画像として生成する生成手段と、
前記生成手段が生成した仮想空間画像を、前記第3の取得手段が取得した撮像画像上に重畳させて前記表示装置に対して出力する出力手段とを備え、
前記生成手段は、
前記第1の取得手段が取得した位置と、前記第4の取得手段が取得した位置と、の間の距離に応じて、前記仮想空間画像の透明度を制御する
ことを特徴とする画像処理装置。
First acquisition means for acquiring a position of a body part of a user wearing a head-mounted display device having an imaging device and a display device on the head;
Second acquisition means for acquiring the position and orientation of the imaging device;
Third acquisition means for acquiring a captured image by the imaging device;
Fourth acquisition means for acquiring a position and orientation of an object to be operated by the part;
Generating means for generating, as a virtual space image, an image when the virtual object having the position and orientation acquired by the fourth acquisition means is viewed from the position and orientation acquired by the second acquisition means;
An output unit that superimposes the virtual space image generated by the generation unit on the captured image acquired by the third acquisition unit and outputs the image to the display device;
The generating means includes
An image processing apparatus, wherein the transparency of the virtual space image is controlled according to a distance between the position acquired by the first acquisition unit and the position acquired by the fourth acquisition unit.
前記生成手段は、前記距離が小さくなるほど、前記仮想空間画像の透明度を上げ、前記距離が大きくなるほど、前記仮想空間画像の透明度を下げることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the generation unit increases the transparency of the virtual space image as the distance decreases, and decreases the transparency of the virtual space image as the distance increases. 前記生成手段は、前記距離が予め定めた閾値以下となっている時間が、予め定めた時間以上となった場合には、前記仮想空間画像の透明度を不透明にすることを特徴とする請求項1に記載の画像処理装置。   2. The generation unit according to claim 1, wherein when the time during which the distance is equal to or less than a predetermined threshold is equal to or longer than a predetermined time, the transparency of the virtual space image is made opaque. An image processing apparatus according to 1. 前記生成手段は更に、前記生成手段が生成した仮想空間画像の周囲には、他の仮想物体の仮想空間画像は生成しないことを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the generation unit further does not generate a virtual space image of another virtual object around the virtual space image generated by the generation unit. 前記部位は、手もしくは足であることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the part is a hand or a foot. 撮像装置と表示装置とを有する頭部装着型表示装置を頭部に装着しているユーザの体の部位の位置を取得する第1の取得工程と、
前記撮像装置の位置姿勢を取得する第2の取得工程と、
前記撮像装置による撮像画像を取得する第3の取得工程と、
前記部位による操作対象となる物体の位置姿勢を取得する第4の取得工程と、
前記第4の取得工程で取得した位置姿勢を有する仮想物体を、前記第2の取得工程で取得した位置姿勢から見た場合の画像を仮想空間画像として生成する生成工程と、
前記生成工程で生成した仮想空間画像を、前記第3の取得工程で取得した撮像画像上に重畳させて前記表示装置に対して出力する出力工程とを備え、
前記生成工程では、
前記第1の取得工程で取得した位置と、前記第4の取得工程で取得した位置と、の間の距離に応じて、前記仮想空間画像の透明度を制御する
ことを特徴とする画像処理方法。
A first acquisition step of acquiring a position of a body part of a user wearing a head-mounted display device having an imaging device and a display device on the head;
A second acquisition step of acquiring the position and orientation of the imaging device;
A third acquisition step of acquiring a captured image by the imaging device;
A fourth acquisition step of acquiring the position and orientation of the object to be operated by the part;
A generation step of generating an image when the virtual object having the position and orientation acquired in the fourth acquisition step is viewed from the position and orientation acquired in the second acquisition step as a virtual space image;
An output step of superimposing the virtual space image generated in the generation step on the captured image acquired in the third acquisition step and outputting it to the display device;
In the generating step,
The transparency of the virtual space image is controlled according to the distance between the position acquired in the first acquisition step and the position acquired in the fourth acquisition step.
コンピュータに請求項6に記載の画像処理方法を実行させるためのプログラム。   A program for causing a computer to execute the image processing method according to claim 6. 請求項7に記載のプログラムを格納した、コンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 7.
JP2007186324A 2007-07-17 2007-07-17 Image processor and image processing method Withdrawn JP2009025918A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007186324A JP2009025918A (en) 2007-07-17 2007-07-17 Image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007186324A JP2009025918A (en) 2007-07-17 2007-07-17 Image processor and image processing method

Publications (1)

Publication Number Publication Date
JP2009025918A true JP2009025918A (en) 2009-02-05

Family

ID=40397689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007186324A Withdrawn JP2009025918A (en) 2007-07-17 2007-07-17 Image processor and image processing method

Country Status (1)

Country Link
JP (1) JP2009025918A (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102281455A (en) * 2010-06-11 2011-12-14 任天堂株式会社 Image display apparatus, image display system, and image display method
US20120075424A1 (en) * 2010-09-24 2012-03-29 Hal Laboratory Inc. Computer-readable storage medium having image processing program stored therein, image processing apparatus, image processing system, and image processing method
JP2012174218A (en) * 2011-02-24 2012-09-10 Ohbayashi Corp Image composition method
JP2012178068A (en) * 2011-02-25 2012-09-13 Nintendo Co Ltd Information processing system, information processing method, information processor and information processing program
WO2013069196A1 (en) * 2011-11-11 2013-05-16 Sony Corporation Information processing device, information processing method, and program
US8633947B2 (en) 2010-06-02 2014-01-21 Nintendo Co., Ltd. Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
US8854356B2 (en) 2010-09-28 2014-10-07 Nintendo Co., Ltd. Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
JP2015143976A (en) * 2013-12-25 2015-08-06 キヤノンマーケティングジャパン株式会社 Information processing device, method for controlling the same, and program
US9278281B2 (en) 2010-09-27 2016-03-08 Nintendo Co., Ltd. Computer-readable storage medium, information processing apparatus, information processing system, and information processing method
US9282319B2 (en) 2010-06-02 2016-03-08 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
JP2017528834A (en) * 2014-09-11 2017-09-28 ノキア テクノロジーズ オサケユイチア Method, apparatus and computer program for displaying images
JP2017199404A (en) * 2017-06-21 2017-11-02 キヤノンマーケティングジャパン株式会社 Information processing device, information processing system, control method thereof and program
JP2018190171A (en) * 2017-05-02 2018-11-29 京セラドキュメントソリューションズ株式会社 Display
WO2019087513A1 (en) * 2017-10-31 2019-05-09 ソニー株式会社 Information processing device, information processing method, and program
JP2019514101A (en) * 2016-03-24 2019-05-30 クアルコム,インコーポレイテッド Spatial relations for integrating visual images of physical environment into virtual reality
CN109993834A (en) * 2017-12-30 2019-07-09 深圳多哚新技术有限责任公司 Localization method and device of the target object in Virtual Space
CN110275619A (en) * 2015-08-31 2019-09-24 北京三星通信技术研究有限公司 The method and its head-mounted display of real-world object are shown in head-mounted display
US10453235B2 (en) 2016-12-01 2019-10-22 Canon Kabushiki Kaisha Image processing apparatus displaying image of virtual object and method of displaying the same
WO2020026419A1 (en) * 2018-08-02 2020-02-06 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method
JP2021149182A (en) * 2020-03-16 2021-09-27 大豊精機株式会社 Work management system and method for setting work management system
JP2021163335A (en) * 2020-04-01 2021-10-11 エヌエイチエヌ コーポレーション Information processing program and information processing system

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9282319B2 (en) 2010-06-02 2016-03-08 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US8633947B2 (en) 2010-06-02 2014-01-21 Nintendo Co., Ltd. Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
US8780183B2 (en) 2010-06-11 2014-07-15 Nintendo Co., Ltd. Computer-readable storage medium, image display apparatus, image display system, and image display method
US20110304702A1 (en) * 2010-06-11 2011-12-15 Nintendo Co., Ltd. Computer-Readable Storage Medium, Image Display Apparatus, Image Display System, and Image Display Method
US20110304703A1 (en) * 2010-06-11 2011-12-15 Nintendo Co., Ltd. Computer-Readable Storage Medium, Image Display Apparatus, Image Display System, and Image Display Method
US10015473B2 (en) * 2010-06-11 2018-07-03 Nintendo Co., Ltd. Computer-readable storage medium, image display apparatus, image display system, and image display method
CN102281455A (en) * 2010-06-11 2011-12-14 任天堂株式会社 Image display apparatus, image display system, and image display method
CN102281455B (en) * 2010-06-11 2015-12-09 任天堂株式会社 Image display system, device and method
EP2395769B1 (en) * 2010-06-11 2015-03-04 Nintendo Co., Ltd. Image display program, image display system, and image display method
EP2395768B1 (en) * 2010-06-11 2015-02-25 Nintendo Co., Ltd. Image display program, image display system, and image display method
US9530249B2 (en) * 2010-09-24 2016-12-27 Nintendo Co., Ltd. Computer-readable storage medium having image processing program stored therein, image processing apparatus, image processing system, and image processing method
US20120075424A1 (en) * 2010-09-24 2012-03-29 Hal Laboratory Inc. Computer-readable storage medium having image processing program stored therein, image processing apparatus, image processing system, and image processing method
US9278281B2 (en) 2010-09-27 2016-03-08 Nintendo Co., Ltd. Computer-readable storage medium, information processing apparatus, information processing system, and information processing method
US8854356B2 (en) 2010-09-28 2014-10-07 Nintendo Co., Ltd. Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
JP2012174218A (en) * 2011-02-24 2012-09-10 Ohbayashi Corp Image composition method
US9064335B2 (en) 2011-02-25 2015-06-23 Nintendo Co., Ltd. System, method, device and computer-readable medium recording information processing program for superimposing information
JP2012178068A (en) * 2011-02-25 2012-09-13 Nintendo Co Ltd Information processing system, information processing method, information processor and information processing program
CN103907139A (en) * 2011-11-11 2014-07-02 索尼公司 Information processing device, information processing method, and program
JP2013105285A (en) * 2011-11-11 2013-05-30 Sony Corp Information processing device, information processing method, and program
WO2013069196A1 (en) * 2011-11-11 2013-05-16 Sony Corporation Information processing device, information processing method, and program
US9497389B2 (en) 2011-11-11 2016-11-15 Sony Corporation Information processing device, information processing method, and program for reduction of noise effects on a reference point
JP2015143976A (en) * 2013-12-25 2015-08-06 キヤノンマーケティングジャパン株式会社 Information processing device, method for controlling the same, and program
US10916057B2 (en) 2014-09-11 2021-02-09 Nokia Technologies Oy Method, apparatus and computer program for displaying an image of a real world object in a virtual reality enviroment
JP2017528834A (en) * 2014-09-11 2017-09-28 ノキア テクノロジーズ オサケユイチア Method, apparatus and computer program for displaying images
CN110275619A (en) * 2015-08-31 2019-09-24 北京三星通信技术研究有限公司 The method and its head-mounted display of real-world object are shown in head-mounted display
JP2019514101A (en) * 2016-03-24 2019-05-30 クアルコム,インコーポレイテッド Spatial relations for integrating visual images of physical environment into virtual reality
US10453235B2 (en) 2016-12-01 2019-10-22 Canon Kabushiki Kaisha Image processing apparatus displaying image of virtual object and method of displaying the same
JP2018190171A (en) * 2017-05-02 2018-11-29 京セラドキュメントソリューションズ株式会社 Display
JP2017199404A (en) * 2017-06-21 2017-11-02 キヤノンマーケティングジャパン株式会社 Information processing device, information processing system, control method thereof and program
US11263456B2 (en) 2017-10-31 2022-03-01 Sony Corporation Virtual object repositioning versus motion of user and perceived or expected delay
JPWO2019087513A1 (en) * 2017-10-31 2020-11-19 ソニー株式会社 Information processing equipment, information processing methods and programs
WO2019087513A1 (en) * 2017-10-31 2019-05-09 ソニー株式会社 Information processing device, information processing method, and program
JP7156301B2 (en) 2017-10-31 2022-10-19 ソニーグループ株式会社 Information processing device, information processing method and program
CN109993834A (en) * 2017-12-30 2019-07-09 深圳多哚新技术有限责任公司 Localization method and device of the target object in Virtual Space
CN109993834B (en) * 2017-12-30 2023-08-29 深圳多哚新技术有限责任公司 Positioning method and device of target object in virtual space
WO2020026419A1 (en) * 2018-08-02 2020-02-06 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method
US11335071B2 (en) 2018-08-02 2022-05-17 Sony Interactive Entertainment Inc. Image generation apparatus and image generation method for augmented reality images based on object interaction
JP2021149182A (en) * 2020-03-16 2021-09-27 大豊精機株式会社 Work management system and method for setting work management system
JP7432407B2 (en) 2020-03-16 2024-02-16 大豊精機株式会社 Work management system and how to set up the work management system
JP2021163335A (en) * 2020-04-01 2021-10-11 エヌエイチエヌ コーポレーション Information processing program and information processing system

Similar Documents

Publication Publication Date Title
JP2009025918A (en) Image processor and image processing method
JP4227561B2 (en) Image processing method and image processing apparatus
JP4262011B2 (en) Image presentation method and apparatus
JP4950834B2 (en) Image processing apparatus and image processing method
JP4401728B2 (en) Mixed reality space image generation method and mixed reality system
JP4933406B2 (en) Image processing apparatus and image processing method
JP4810295B2 (en) Information processing apparatus and control method therefor, image processing apparatus, program, and storage medium
JP4533087B2 (en) Image processing method and image processing apparatus
JP4642538B2 (en) Image processing method and image processing apparatus
US8994729B2 (en) Method for simulating operation of object and apparatus for the same
KR20230048457A (en) Technique for recording augmented reality data
JP2009169622A (en) Image processor, and image processing method
JP2017134771A (en) Information processing device, information processing method, and program
JP2009087161A (en) Image processor and image processing method
JP2005339377A (en) Image processing method and image processor
JP2006285609A (en) Image processing method, image processor
JP2007004713A (en) Image processing method and image processor
JP4217661B2 (en) Image processing method and image processing apparatus
JP2018063567A (en) Image processing device, image processing method and program
JP2005251118A (en) Method and device for image processing
JP2004233201A (en) Position attitude measuring method
JP7279113B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, COMPUTER PROGRAM
JP2006163383A (en) Information processing apparatus and information processing method
JP4689344B2 (en) Information processing method and information processing apparatus
JP2005128877A (en) Complex sense of reality providing system and method, information processing device and method, and computer program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20101005