WO2020115815A1 - ヘッドマウントディスプレイ装置 - Google Patents
ヘッドマウントディスプレイ装置 Download PDFInfo
- Publication number
- WO2020115815A1 WO2020115815A1 PCT/JP2018/044569 JP2018044569W WO2020115815A1 WO 2020115815 A1 WO2020115815 A1 WO 2020115815A1 JP 2018044569 W JP2018044569 W JP 2018044569W WO 2020115815 A1 WO2020115815 A1 WO 2020115815A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- lens
- information
- occlusion
- camera
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0129—Head-up displays characterised by optical features comprising devices for correcting parallax
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
Definitions
- the present invention relates to a head mounted display device, and more particularly to a technique effective for expressing faithful occlusion in AR (Augmented Reality) display.
- AR is a technique for displaying an image created by a computer, a portable computer, or the like so as to overlap the entire screen or a part of a real image.
- An object of the present invention is to provide a technology capable of faithfully expressing occlusion even in binocular vision in AR display by a head mounted display device or the like.
- a typical head mounted display device has a first lens, a second lens, a first camera, a second camera, and an information processing unit.
- the first lens displays a CG image for the right eye.
- the second lens displays the CG image for the left eye.
- the first camera captures an image for the right eye.
- the second camera captures an image for the left eye.
- Information processing is performed by using a CG image for the right eye that expresses occlusion when viewed with the right eye and a CG image for the left eye that expresses occlusion when viewed with the left eye from the images captured by the first camera and the second camera.
- the generated CG image for the right eye is projected on the first lens
- the generated CG image for the left eye is projected on the second lens.
- the center of the lens of the first camera is provided at the same position as the center of the first lens (center of the wearer's pupil).
- the center of the lens of the second camera is provided at the same position as the center of the second lens (center of the wearer's pupil).
- the information processing unit has a first information generation unit, a second information generation unit, a first occlusion area calculation unit, a second occlusion area calculation unit, an image generation unit, and a display unit.
- the first information generation unit generates occlusion information indicating the occlusion relationship between the CG image displayed on the first lens and the real environment from the images captured by the first camera and the second camera.
- the second information generation unit generates occlusion information indicating a shielding relationship between the CG image displayed on the second lens and the real environment from the images captured by the first camera and the second camera.
- the first occlusion area calculation unit is based on the occlusion information generated by the first information generation unit, and the CG image displayed on the first lens is occluded by the object when the CG image is viewed by the right eye. Calculate the area.
- the second occlusion area calculation unit based on the occlusion information generated by the second information generation unit, covers the object when the CG image displayed on the second lens is viewed by the left eye. Calculate the area.
- the image generation unit based on the CG image generation data that generates the CG image, the CG image for the right eye that does not display the occlusion region calculated by the first occlusion region calculation unit and the occlusion calculated by the second occlusion region calculation unit.
- Each CG image for the left eye that does not display the region is generated.
- the display unit projects the CG image for the right eye and the CG image for the left eye generated by the image generation unit onto the first lens and the second lens.
- FIG. 3 is an explanatory diagram showing an example of a configuration of a head mounted display device according to an embodiment.
- FIG. 3 is an explanatory diagram showing an example of a configuration of a control processing unit included in the head mounted display device of FIG. 1.
- It is explanatory drawing which shows an example of a structure in the information processing part which the control processing part of FIG. 2 has.
- It is explanatory drawing which showed an example of AR display by the head mounted display apparatus of FIG.
- It is an explanatory view showing an example of image processing which considered binocular vision.
- FIG. 1 is an explanatory diagram showing an example of the configuration of a head mounted display device 10 according to an embodiment.
- the head mounted display device 10 has a housing 11, lenses 12, 13, cameras 14, 15 and an information processing section 16.
- the housing 11 constitutes a spectacle frame.
- the lens 12 that is the first lens and the lens 13 that is the second lens are fixed to the rim of the housing 11.
- the lenses 12 and 13 fixed to the rim are provided so as to correspond to the left and right eyes of a user who uses the head mounted display device 10.
- These cameras 14 and 15 are, for example, stereo cameras.
- the stereo camera takes an image of a subject by using the parallax between the two cameras.
- the camera 14 is a camera corresponding to the right eye of the user
- the camera 15 is a camera corresponding to the left eye of the user. These cameras 14 and 15 capture images, respectively.
- the center of the lens of the camera 14 is provided at a position substantially the same as the center of the lens 12. In other words, the center of the lens of the camera 14 is almost the same as the center of the right eye pupil of the user.
- the center of the lens of the camera 15 is provided at a position substantially the same as the center of the lens 13. In other words, the center of the lens of the camera 15 is almost the same as the center of the pupil of the right eye of the user.
- FIG. 2 is an explanatory diagram showing an example of the configuration of the control processing unit 16 included in the head mounted display device 10 of FIG.
- the control processing unit 16 is composed of an operation input unit 17, a control unit 18, an information processing unit 19, and a communication unit 30.
- the operation input unit 17, the control unit 18, the information processing unit 19, the communication unit 30, and the cameras 14 and 15 in FIG. 1 are mutually connected by a bus 31.
- the operation input unit 17 is a user interface including, for example, a touch sensor.
- the touch sensor includes a capacitive touch panel that electrostatically detects the position of the user's finger or the like that contacts the touch sensor.
- the control unit 18 controls the head mounted display device 10.
- the information processing unit 19 generates a CG image and displays it on the lenses 12 and 13.
- the information processing unit 19 is provided, for example, in the bridge portion of the housing 11 or the like.
- the arrangement of the information processing unit 16 is not particularly limited, and the information processing unit 16 may be provided in, for example, a temple portion of the housing 11.
- the CG image generated by the information processing unit 16 is projected on the lenses 12 and 13.
- the projected CG image is magnified and displayed by the lenses 12 and 13, respectively.
- the CG image displayed on the lenses 12 and 13 is superimposed on the actual image to form an AR image.
- the communication unit 30 performs wireless communication of information via Bluetooth (registered trademark), an Internet line, or the like.
- FIG. 3 is an explanatory diagram showing an example of the configuration of the information processing unit 19 included in the control processing unit 16 of FIG.
- the information processing unit 19 includes a depth information generation unit 20, a shielded region calculation unit 21, an AR image generation unit 22, and an AR display unit 23.
- the depth information generation unit 20 forming the first information generation unit and the second information generation unit calculates and stores the distance to the object, the angle of convergence, and the like.
- the depth information generation unit 20 has a parallax matching unit 25 and a depth information storage unit 26.
- the parallax matching unit 25 calculates the object distance and the convergence angle of all the objects in the images captured by the cameras 14 and 15 of FIG. 1, respectively.
- the images captured by the cameras 14 and 15 are input via the bus 31.
- the object distance is the distance from the cameras 14 and 15 to the object, in other words, the depth information of the object.
- the vergence angle is the angle weaved by the object gazed by the line of sight emitted from both eyes. This angle of convergence can be calculated, for example, from the object distance and the position information of the object on the image.
- the depth information storage unit 26 includes a semiconductor memory such as a flash memory, for example, and stores right-eye depth information and left-eye depth information.
- the right-eye depth information is information obtained by adding the object distance and the convergence angle calculated by the parallax matching unit 25 to the image captured by the camera 14.
- the left-eye depth information is information obtained by adding the object distance and the convergence angle calculated by the parallax matching unit 25 to the image captured by the camera 15.
- the right-eye depth information, the left-eye depth information stored in the depth information storage unit 26, and the CG image to be displayed are calculated based on the distance information.
- the occluded region is a region in which a part of the CG image displayed for expressing occlusion is not displayed.
- the AR image generation unit 22 which is an image generation unit, based on the occlusion region of the CG image for the right eye calculated by the occlusion region calculation unit 21, the occlusion region of the CG image for the left eye, and the image generation data, the CG for the right eye. An image and a CG image for the left eye are generated respectively.
- the distance information of the CG image described above is information indicating the distance and position of the CG image to be displayed.
- the image generation data is data necessary for generating a CG image to be displayed, and is, for example, data such as the shape and color arrangement of the CG image.
- the distance information and the image generation data are provided by an application input from the outside, for example.
- the application is acquired, for example, through the communication unit 30 included in the control processing unit 19.
- the information processing unit 19 may be provided with a memory (not shown), and an application input from the outside in advance may be stored in the memory.
- the AR display unit 23 which is a display unit, is an optical system that irradiates the lenses 12 and 13 with the CG image for the right eye and the CG image for the left eye generated by the AR image generation unit 22, respectively, and draws the images.
- the cameras 14 and 15 take images.
- the images captured by the cameras 14 and 15 are input to the parallax matching unit 25 included in the depth information generation unit 20.
- the parallax matching unit 25 calculates the object distance and the angle of convergence from the images captured by the cameras 14 and 15, respectively.
- the object distance is calculated by the parallax matching unit 25 calculating the difference between the positions of the images captured by the cameras 14 and 15 by triangulation or the like.
- a distance sensor (not shown) is newly provided in the information processing unit 19, and the distance sensor measures the distance to the object. May be respectively measured.
- the vergence angle is calculated by the parallax matching unit 25 based on the calculated object distance and the position of the object. These calculations are performed for each object shown in the images taken by the cameras 14 and 15.
- the parallax matching unit 25 adds the object distance and the convergence angle calculated from the image of the camera 14 to the image captured by the camera 14, respectively. Similarly, the object distance and the convergence angle calculated from the image of the camera 15 are added to the images captured by the camera 15, respectively.
- the parallax matching unit 25 stores the image of the camera 14 to which the distance and the convergence angle are added in the depth information storage unit 26 as the depth information for the right eye, and the image of the camera 15 to which the distance and the convergence angle are added. It is stored in the depth information storage unit 26 as the left-eye depth information described above.
- the occlusion area calculation unit 21 obtains the distance to the object and the convergence angle from the depth information for the right eye and the depth information for the left eye stored in the depth information storage unit 26, respectively. Then, based on the distance to the acquired object, the angle of convergence, and the distance information of the CG image provided from the application, the CG image displayed on the right eye is covered by the real object and the CG image displayed on the left eye is displayed. The areas occluded by the physical objects are calculated.
- the AR image generation unit 22 generates a CG image to be superimposed on the real scene based on the image generation data provided by the application.
- the AR image generation unit 22 generates each CG image in which the region expressing occlusion is not displayed, based on the information of the shielding region calculated by the shielding region calculation unit 21.
- the CG images for the right eye and the left eye generated by the AR image generation unit 22 are output to the AR display unit 23, respectively.
- the AR display unit 23 projects the input CG image for the right eye on the lens 12 and projects the input CG image for the left eye on the lens 13.
- a CG image for the right eye that expresses the optimal occlusion for the visual field of the right eye and a CG image for the left eye that expresses the optimal occlusion for the visual field of the left eye are displayed on lenses 12 and 13, respectively.
- an AR image in which faithful occlusion is expressed can be provided.
- FIG. 4 is an explanatory diagram showing an example of an AR display by the head mounted display device 10 of FIG.
- FIG. 5 is an explanatory diagram showing an example of image processing considering binocular vision.
- FIG. 6 is an explanatory diagram showing an example of the convergence angle.
- FIG. 7 is an explanatory diagram showing an example of a difference in appearance of the right eye and the left eye.
- FIG. 4 shows an example in which an AR display is made in a state where a real object 201 is behind the real object 200 and the CG image 50 is placed on the real object 201.
- the right eye and the left eye are about 6 cm apart, so the scenery captured by the left and right eyes is slightly different. At this time, the shift amount varies depending on the distance of the object. Therefore, when performing AR display in consideration of binocular vision, it is necessary to grasp the appearance of a real object captured by the left and right eyes of the user.
- the vergence angle is larger when the object 204 which is closer is seen than when the object 203 which is far away is seen.
- the area of the object 203 where the right eye and the left eye can see changes due to the change of the convergence angle, and thus the change of the occluded area of the CG image caused by the difference in the view area caused by the convergence angle. Need to consider.
- the camera 14 provided so that the center of the lens is substantially the same as the center of the right eye of the user and the camera 15 provided so that the center of the lens is substantially the same as the center of the left eye of the user. Take each image. As a result, it is possible to capture an image that is substantially the same as how the user sees the real object with the left and right eyes.
- the images captured by the cameras 14 and 15 are similar to the images captured by the left and right eyes of humans, and as shown in the upper part of FIG. 5, the image captured by the camera 14 for the right eye is mainly the real object 201. Of the image captured by the camera 15 for the left eye, the right side of the real object 201 is mainly hidden by the real object 200.
- the occluding area of the CG image 50 superimposed from the image acquired by the camera 14 and the occluding area of the CG image 50 overlapping from the image captured by the camera 15 are calculated, respectively, for the right eye.
- the CG image for the left eye are individually generated and displayed.
- the user can browse the AR image in which the faithful occlusion is expressed.
- the CG image may be displayed on the lenses 12 and 13 by adjusting the resolution, in other words, the blur amount of the CG image, according to the distance information of the CG image provided from the application. As a result, a more natural CG image can be displayed.
- the depth information storage unit 26 stores the blur amount information having the distance of the CG image and the blur amount associated with the distance.
- the AR image generation unit 22 acquires the distance of the CG image from the distance information of the CG image provided by the application. Then, the blur amount information stored in the depth information storage unit 26 is searched, and the blur amount that matches or is close to the blur amount corresponding to the acquired distance is extracted.
- the blur information indicates, for example, the amount of blurring the contour line of the CG image, and the process of blurring the contour line of the CG image is performed based on the blur information.
- the CG image can be blurred like a distant view, so that there is no discomfort such that the CG image is clearly displayed even though it is a CG image displayed in the distance, and a more natural AR image is presented to the user. Can be provided.
- the blur amount information is information having the display distance and size of CG images and the blur amount associated with the distance and size of those CG images.
- the AR image generation unit 22 acquires the distance of the CG image from the distance information of the CG image provided by the application, and acquires the size information of the CG image from the image generation data of the CG image also provided by the application.
- the blur amount information stored in the depth information storage unit 26 is searched, and the blur amount that matches or is close to the blur amount corresponding to the acquired distance and size is extracted. Based on the extracted blur information, processing for fitting the contour line of the CG image is performed.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
ヘッドマウントディスプレイ装置などによるAR表示において両眼視であっても忠実にオクルージョンを表現する。ヘッドアップディスプレイ装置10は、レンズ12、レンズ13、カメラ14、カメラ15、および情報処理部16を有する。レンズ12は、右目用のCG画像を表示する。レンズ13は、左目用のCG画像を表示する。カメラ14は、右目用の画像を撮影する。カメラ15は、左目用の画像を撮影する。情報処理部16は、カメラ14,15が撮影した画像から右目で見た際のオクルージョンを表現した右目用のCG画像および左目で見た際のオクルージョンを表現した左目用のCG画像をそれぞれ生成して、生成した右目用の前記CG画像および左目用のCG画像をレンズ12,13にそれぞれ投射する。カメラ14のレンズの中心は、レンズ12の中心と同じ位置に設けらる。カメラ15のレンズの中心は、レンズ13の中心と同じ位置に設けられる。
Description
本発明は、ヘッドマウントディスプレイ装置に関し、特に、AR(Augmented Reality:拡張現実)表示における忠実なオクルージョンの表現に有効な技術に関する。
近年、ARを利用した様々なサービスの提案がされている。ARは、コンピュータ、または携帯型計算機などが作成する画像を画面の全体あるいは実写画像の一部に重ねて表示させる技術である。
3次元空間では、上下や左右の他に前後関係がある。よって、手前にある物体が背後にある物体を隠して見えないようにする状態、すなわちオクルージョンが発生する。
ARによる表示において、ユーザに違和感のないAR画像を提供するためには、3次元映像の処理などによって上述したオクルージョンを忠実に表現することが重要となる。
この種のオクルージョンを考慮したARの画像処理技術としては、例えばオクルージョンを表現する際に現実物体に隠れるCG(Computer Graphics)画像領域を楕円状に切り取ることによって、オクルージョン処理を行うものが知られている(例えば特許文献1参照)。
上述したオクルージョン処理は、例えばスマートフォンやタブレットなどにAR表示を行う単一視(Single Vison)の場合、単純に現実物体とCG画像との距離関係に応じてオクルージョンを表現すればよい。
しかし、ARグラスなどの両眼視(Binocular Vision)によるヘッドマウントディスプレイ装置の場合、AR表示において忠実にオクルージョンを表現するには、両眼の視差や輻輳角などを考慮する必要があり、単一視のオクルージョン処理を適用するだけでは、不自然なAR画像になってしまうという問題がある。
また、上述した特許文献1のオクルージョンの処理技術では、ユーザの両眼視差や輻輳角などによる見え方の違いなどを考慮した処理が行われていない、また、現実物体の輪郭に沿って現実物体に隠れるCG画像領域を切り取るのではなく、該CG画像領域を楕円状に切り取るために、現実物体とCG画像との隙間の表示が不自然になってしまうという問題がある。
本発明の目的は、ヘッドマウントディスプレイ装置などによるAR表示において両眼視であっても忠実にオクルージョンを表現することのできる技術を提供することにある。
本発明の前記ならびにその他の目的と新規な特徴については、本明細書の記述および添付図面から明らかになるであろう。
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次のとおりである。
すなわち、代表的なヘッドマウントディスプレイ装置は、第1のレンズ、第2のレンズ、第1のカメラ、第2のカメラ、および情報処理部を有する。第1のレンズは、右目用のCG画像を表示する。第2のレンズは、左目用のCG画像を表示する。第1のカメラは、右目用の画像を撮影する。第2のカメラは、左目用の画像を撮影する。
情報処理は、第1のカメラおよび第2のカメラが撮影した画像から右目で見た際のオクルージョンを表現した右目用のCG画像および左目で見た際のオクルージョンを表現した左目用のCG画像をそれぞれ生成して、生成した右目用のCG画像を第1のレンズに投射し、生成した左目用のCG画像を第2のレンズに投射する。
そして、第1のカメラのレンズの中心は、第1のレンズの中心(装着者の瞳の中心)と同じ位置に設けられている。第2のカメラのレンズの中心は、第2のレンズの中心(装着者の瞳の中心)と同じ位置に設けられている。
特に、情報処理部は、第1の情報生成部、第2の情報生成部、第1の遮蔽領域計算部、第2の遮蔽領域計算部、画像生成部、および表示部を有する。
第1の情報生成部は、第1のカメラおよび第2のカメラが撮影した画像から第1のレンズに表示するCG画像と現実環境との遮蔽関係を示すオクルージョン情報を生成する。第2の情報生成部は、第1のカメラおよび第2のカメラが撮影した画像から第2のレンズに表示するCG画像と現実環境との遮蔽関係を示すオクルージョン情報を生成する。
第1の遮蔽領域計算部は、第1の情報生成部が生成したオクルージョン情報に基づいて、第1のレンズに表示されるCG画像を右目で見た際にCG画像が物体に遮蔽される遮蔽領域を計算する。
第2の遮蔽領域計算部は、第2の情報生成部が生成したオクルージョン情報に基づいて、第2のレンズに表示されるCG画像を左目で見た際にCG画像が物体に遮蔽される遮蔽領域を計算する。
第2の遮蔽領域計算部は、第2の情報生成部が生成したオクルージョン情報に基づいて、第2のレンズに表示されるCG画像を左目で見た際にCG画像が物体に遮蔽される遮蔽領域を計算する。
画像生成部は、CG画像を生成するCG画像生成データに基づいて、第1の遮蔽領域計算部が算出した遮蔽領を表示しない右目用のCG画像および第2の遮蔽領域計算部が算出した遮蔽領を表示しない左目用のCG画像をそれぞれ生成する。表示部は、画像生成部が生成した右目用のCG画像および左目用のCG画像を第1のレンズおよび第2のレンズに投射する。
本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。
両眼視のAR表示において、忠実なオクルージョンを再現することができる。
実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。
以下、実施の形態を詳細に説明する。
〈ヘッドマウントディスプレイ装置の構成例〉
図1は、一実施の形態によるヘッドマウントディスプレイ装置10における構成の一例を示す説明図である。
図1は、一実施の形態によるヘッドマウントディスプレイ装置10における構成の一例を示す説明図である。
ヘッドマウントディスプレイ装置10は、図1に示すように、筐体11、レンズ12,13、カメラ14,15、および情報処理部16を有する。筐体11は、眼鏡フレームを構成する。
第1のレンズであるレンズ12および第2のレンズであるレンズ13は、筐体11のリムにそれぞれ固定されている。リムに固定される各々のレンズ12,13は、ヘッドマウントディスプレイ装置10を使用するユーザの左右の目にそれぞれ対応するように設けられている。
レンズ12を固定するリムの上部には、第1のカメラであるカメラ14が設けられており、レンズ13を固定するリムの上部には、第2のカメラであるカメラ15が設けられている。これらカメラ14,15は、例えばステレオカメラである。ステレオカメラは、2つのカメラの視差を利用して、被写体を撮影する。
カメラ14は、ユーザの右目に対応するカメラであり、カメラ15は、ユーザの左目に対応するカメラである。これらカメラ14,15は、画像をそれぞれ撮影する。
また、カメラ14のレンズの中心は、レンズ12の中心とほぼ同じとなる位置に設けられている。言い換えれば、カメラ14のレンズの中心は、ユーザの右目の瞳の中心とほぼ同じとなる。
同様に、カメラ15のレンズの中心は、レンズ13の中心とほぼ同じとなる位置に設けられている。言い換えれば、カメラ15のレンズの中心は、ユーザの右目の瞳の中心とほぼ同じとなる。
図2は、図1のヘッドマウントディスプレイ装置10が有する制御処理部16における構成の一例を示す説明図である。
制御処理部16は、図2に示すように、操作入力部17、制御部18、情報処理部19、および通信部30から構成されている。これら操作入力部17、制御部18、情報処理部19、通信部30、および図1のカメラ14,15は、バス31によって相互に接続されている。
操作入力部17は、例えばタッチセンサなどからなるユーザインタフェースである。タッチセンサは、該タッチセンサに接触するユーザの指などの位置を静電的に検出する静電容量方式のタッチパネルなどからなる。
制御部18は、ヘッドマウントディスプレイ装置10における制御を司る。情報処理部19は、CG画像を生成してレンズ12,13に表示させる。この情報処理部19は、例えば筐体11のブリッジ部分などに設けられている。情報処理部16の配置は、特に制限なく、例えば筐体11のテンプル部分などに情報処理部16を設けるようにしてもよい。
情報処理部16が生成したCG画像は、レンズ12,13に投射される。投射されたCG画像は、レンズ12,13によってそれぞれ拡大されて表示される。そして、レンズ12,13に表示されたCG画像が実画像に重ね合わされてAR画像となる。
通信部30は、例えばBluetooth(登録商標)、またはインターネット回線などによ情報のり無線通信などを行う。
〈情報処理部の構成例〉
図3は、図2の制御処理部16が有する情報処理部19における構成の一例を示す説明図である。
図3は、図2の制御処理部16が有する情報処理部19における構成の一例を示す説明図である。
情報処理部19は、図3に示すように、奥行き情報生成部20、遮蔽領域計算部21、AR画像生成部22、およびAR表示部23から構成されている。
第1の情報生成部および第2の情報生成部を構成する奥行き情報生成部20は、物体までの距離および輻輳角などを算出して格納する。この奥行き情報生成部20は、視差マッチング部25およびデプス情報格納部26を有する。
視差マッチング部25は、図1のカメラ14,15が撮影した画像のすべての物体における物体距離および輻輳角をそれぞれ算出する。カメラ14,15が撮影した画像は、バス31を介して入力される。
物体距離とは、カメラ14,15から物体までの距離であり、言い換えれば、物体の深度情報である。輻輳角は、両目から放たれた視線が注視する物体にて織りなす角度である。この輻輳角は、例えば物体距離と該物体の画像上の位置情報とから算出することができる。
デプス情報格納部26は、例えばフラッシュメモリなどに例示される半導体メモリからなり、右目用デプス情報および左目用デプス情報を格納する。右目用デプス情報は、カメラ14が撮影した画像に視差マッチング部25が算出した物体距離および輻輳角をそれぞれ付加した情報である。左目用デプス情報は、カメラ15が撮影した画像に視差マッチング部25が算出した物体距離および輻輳角をそれぞれ付加した情報である。
第1の遮蔽領域計算部および第2の遮蔽領域計算部を構成する遮蔽領域計算部21には、デプス情報格納部26に格納される右目用デプス情報、左目用デプス情報、および表示するCG画像の距離情報に基づいて、右目用のCG画像の遮蔽領域と左目用のCG画像の遮蔽領域とをそれぞれ計算する。遮蔽領域とは、オクルージョンを表現するために表示するCG画像の一部を表示させない領域である。
画像生成部であるAR画像生成部22は、遮蔽領域計算部21が計算した右目用のCG画像の遮蔽領域、左目用のCG画像の遮蔽領域、および画像生成データに基づいて、右目用のCG画像と左目用のCG画像とをそれぞれ生成する。
上述したCG画像の距離情報は、表示するCG画像の距離や位置などを示す情報である。画像生成データは、表示するCG画像を生成する際に必要なデータであり、例えばCG画像の形状や配色などのデータである。
これら距離情報および画像生成データは、例えば外部から入力されるアプリケーションによって提供される。アプリケーションは、例えば制御処理部19が有する通信部30を通じて取得する。あるいは、情報処理部19に図示しないメモリを設け、該メモリに予め外部から入力されるアプリケーションを格納するようにしてもよい。
表示部であるAR表示部23は、AR画像生成部22が生成した右目用のCG画像および左目用のCG画像をレンズ12,13にそれぞれ照射して描画する光学系である。
〈ヘッドマウントディスプレイ装置の動作例〉
次に、ヘッドマウントディスプレイ装置10の動作について説明する。
次に、ヘッドマウントディスプレイ装置10の動作について説明する。
まず、カメラ14,15が画像を撮影する。カメラ14,15によって撮影された画像は、奥行き情報生成部20が有する視差マッチング部25に入力される。視差マッチング部25は、物体距離および輻輳角をカメラ14,15が撮影した画像からそれぞれ算出する。
物体距離は、視差マッチング部25がカメラ14,15が撮影したそれぞれの画像の位置の差を三角測量などによって計算することによって算出する。あるいは、ステレオカメラを構成するカメラ14,15の画像から物体までの距離を算出するのではなく、例えば情報処理部19に図示しない距離センサなどを新たに設けて、該距離センサによって物体までの距離をそれぞれ測距するようにしてもよい。
輻輳角は、算出した物体距離とその物体の位置に基づいて、視差マッチング部25が算出する。これらの算出は、カメラ14,15が撮影した画像に写っている物体毎に行う。
その後、視差マッチング部25は、カメラ14の画像から算出した物体距離および輻輳角をカメラ14が撮影した画像にそれぞれ付加する。同様に、カメラ15の画像から算出した物体距離および輻輳角をカメラ15が撮影した画像にそれぞれ付加する。
そして、視差マッチング部25は、距離および輻輳角が付加されたカメラ14の画像を上述した右目用デプス情報としてデプス情報格納部26に格納し、距離および輻輳角が付加されたカメラ15の画像を上述した左目用デプス情報としてデプス情報格納部26に格納する。
遮蔽領域計算部21は、デプス情報格納部26に格納された右目用デプス情報および左目用デプス情報から物体まで距離と輻輳角とをそれぞれ取得する。その後、取得した物体まで距離、輻輳角、およびアプリケーションから提供されるCG画像の距離情報に基づいて、右目に表示されるCG画像が現実物体に遮蔽される領域および左目に表示されるCG画像が現実物体に遮蔽される領域をそれぞれ算出する。
遮蔽領域計算部21が算出した遮蔽領域の情報は、AR画像生成部22にそれぞれ出力される。AR画像生成部22は、アプリケーションから提供された画像生成データに基づいて、現実の光景に重畳するCG画像を生成する。
その際、AR画像生成部22は、遮蔽領域計算部21が算出した遮蔽領域の情報に基づいて、オクルージョンを表現する領域が表示されないCG画像をそれぞれ生成する。
AR画像生成部22が生成した右目用および左目用のCG画像は、AR表示部23にそれぞれ出力される。AR表示部23は、入力された右目用のCG画像をレンズ12に、左目用のCG画像をレンズ13にそれぞれ投射する。
これによって、右目の視野に最適なオクルージョンが表現される右目用のCG画像および左目の視野に最適なオクルージョンが表現される左目用のCG画像をそれぞれレンズ12,13にそれぞれ表示される。その結果、忠実なオクルージョンが表現されたAR画像を提供することができる。
〈両眼視を考慮したCG画像の表示について〉
図4は、図1のヘッドマウントディスプレイ装置10によるAR表示の一例を示した説明図である。図5は、両眼視を考慮した画像処理の一例を示した説明図である。図6は、輻輳角の一例を示す説明図である。図7は、右目および左目の見え方の違いの一例を示す説明図である。
図4は、図1のヘッドマウントディスプレイ装置10によるAR表示の一例を示した説明図である。図5は、両眼視を考慮した画像処理の一例を示した説明図である。図6は、輻輳角の一例を示す説明図である。図7は、右目および左目の見え方の違いの一例を示す説明図である。
図4は、現実物体200の後方に現実物体201があり、現実物体201にCG画像50が載置されている状態のAR表示がなされている例を示している。
人間は、右目と左目とが6cm程度離れているため、左右の目が捉える景色はわずかにずれいている。このとき、ずれ量は、物体の距離に応じて異なる。よって、両眼視を考慮したAR表示を行う場合には、ユーザの左右の目が捉える現実物体の見え方を把握する必要がある。
また、図6に示すように、輻輳角は、遠くにある物体203を見るときの輻輳角θ1よりもより近くにある物体204を見るときの輻輳角θ2の方が大きくなる。輻輳角が変化することによって、図7に示すように、右目および左目の見える物体203の領域についても変化するため、輻輳角によって生じる見える領域の違いから発生するCG画像の遮蔽領域の変化についても考慮する必要がある。
そこで、上述したようにレンズの中心がユーザの右目の中心とほぼ同じとなるように設けられたカメラ14およびレンズの中心がユーザの左目の中心とほぼ同じとなるように設けられたカメラ15によって画像をそれぞれ撮影する。これにより、ユーザの左右の目による現実物体の見え方とほぼ同様の画像を捉えることができる。
上述したように、ユーザが図4の現実物体200,201を見た場合、左右の目によって現実物体200の隠れ方が異なる。よって、図4の現実物体200,201をカメラ14,15が撮影する場合も、左右の目によって捉えられる画像とほぼ同様の画像が取得されるようにする。
例えば 図4の現実物体200,201を人間の右目が捉えた場合には、主に現実物体201の左側が現実物体200によって隠されるように見える。左目が捉えた場合には、主に現実物体201の右側が現実物体200によって隠れるように見える。
カメラ14,15が撮影した画像についても、人間の左右の目によって捉えられる画像と同様であり、図5の上方に示すように、右目用のカメラ14が捉えた画像は、主に現実物体201の左側が現実物体200によって隠され、左目用のカメラ15が捉えた画像は、主に現実物体201の右側が現実物体200によって隠される。
そして、図5の下方に示すように、カメラ14が取得した画像から重畳するCG画像50の遮蔽領域およびカメラ15が撮影した画像から重畳するCG画像50の遮蔽領域をそれぞれ算出して、右目用のCG画像と左目用のCG画像とをそれぞれ個別に生成して表示する。
このように、左右の視野の遮蔽関係を考慮した右目用のCG画像および左目用のCG画像をそれぞれ生成して表示することにより、ユーザは、忠実なオクルージョンが表現されるAR画像を閲覧することができる。
以上により、ユーザにとって違和感のない、自然なAR画像を提供することができる。
〈CG画像生成の他の例〉
また、CG画像は、アプリケーションから提供されるCG画像の距離情報に応じて、解像度、言い換えれば該CG画像のぼけ量を調節してレンズ12,13に表示するようにしてもよい。これによって、より自然なCG画像を表示することができる。
また、CG画像は、アプリケーションから提供されるCG画像の距離情報に応じて、解像度、言い換えれば該CG画像のぼけ量を調節してレンズ12,13に表示するようにしてもよい。これによって、より自然なCG画像を表示することができる。
この場合、デプス情報格納部26には、CG画像の距離と、該距離に紐付けられたぼけ量とを有するぼけ量情報が格納されている。AR画像生成部22は、アプリケーションから提供されるCG画像の距離情報からCG画像の距離を取得する。そして、デプス情報格納部26に格納されるぼけ量情報を検索して、取得した距離に該当するぼけ量に一致、または近いぼけ量を抽出する。
そして、抽出したぼけ量に基づいて、CG画像をぼけ処理を行う。ぼけ情報は、例えばCG画像の輪郭線をにじませる量を示しており、そのぼけ情報に基づいて、CG画像の輪郭線をにじませる処理を行う。
これによって、遠景と同様にCG画像をぼかすことができるので、遠くに表示されるCG画像であるのに該CG画像がはっきりと表示されるなどの違和感がなくなり、より自然なAR画像をユーザに提供することができる。
また、CG画像の距離情報のみを用いてぼけ量を決定するのではなく、CG画像の大きさなども考慮したぼけ量情報を用いてCG画像を生成することにより、距離情報だけの場合に比べて、より遠景に馴染む自然なぼけとなるAR画像を提供することができる。
この場合、ぼけ量情報は、CG画像の表示距離および大きさと、それらCG画像の距離および大きさに紐付けられたぼけ量とを有する情報となる。AR画像生成部22は、アプリケーションから提供されるCG画像の距離情報からCG画像の距離を取得し、同じくアプリケーションから提供されるCG画像の画像生成データからCG画像の大きさの情報を取得する。
そして、デプス情報格納部26に格納されるぼけ量情報を検索して、取得した距離および大きさに該当するぼけ量に一致、または近いぼけ量を抽出する。抽出したそのぼけ情報に基づいて、CG画像の輪郭線を馴染ませる処理を行う。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。
10 ヘッドマウントディスプレイ装置
11 筐体
12 レンズ
13 レンズ
14 カメラ
15 カメラ
16 制御処理部
17 操作入力部
18 制御部
19 情報処理部
19 情報処理部
20 情報生成部
21 遮蔽領域計算部
22 AR画像生成部
23 AR表示部
25 視差マッチング部
26 デプス情報格納部
30 通信部
50 CG画像
11 筐体
12 レンズ
13 レンズ
14 カメラ
15 カメラ
16 制御処理部
17 操作入力部
18 制御部
19 情報処理部
19 情報処理部
20 情報生成部
21 遮蔽領域計算部
22 AR画像生成部
23 AR表示部
25 視差マッチング部
26 デプス情報格納部
30 通信部
50 CG画像
Claims (6)
- 右目用のCG画像を表示する第1のレンズと、
左目用のCG画像を表示する第2のレンズと、
右目用の画像を撮影する第1のカメラと、
左目用の画像を撮影する第2のカメラと、
前記第1のカメラおよび前記第2のカメラが撮影した画像から右目で見た際のオクルージョンを表現した右目用のCG画像および左目で見た際のオクルージョンを表現した左目用のCG画像をそれぞれ生成して、生成した右目用の前記CG画像を前記第1のレンズに投射し、生成した左目用の前記CG画像を前記第2のレンズに投射する情報処理部と、
を有し、
前記第1のカメラのレンズの中心は、前記第1のレンズの中心と同じ位置に設けられ、
前記第2のカメラのレンズの中心は、前記第2のレンズの中心と同じ位置に設けられる、ヘッドマウントディスプレイ装置。 - 請求項1記載のヘッドマウントディスプレイ装置において、
前記情報処理部は、
前記第1のカメラおよび前記第2のカメラが撮影した画像から前記第1のレンズに表示する前記CG画像と現実環境との遮蔽関係を示すオクルージョン情報を生成する第1の情報生成部と、
前記第1のカメラおよび前記第2のカメラが撮影した画像から前記第2のレンズに表示する前記CG画像と現実環境との遮蔽関係を示すオクルージョン情報を生成する第2の情報生成部と、
前記第1の情報生成部が生成した前記オクルージョン情報に基づいて、前記第1のレンズに表示されるCG画像を右目で見た際に前記CG画像が物体に遮蔽される遮蔽領域を計算する第1の遮蔽領域計算部と、
前記第2の情報生成部が生成した前記オクルージョン情報に基づいて、前記第2のレンズに表示されるCG画像を左目で見た際に前記CG画像が物体に遮蔽される遮蔽領域を計算する第2の遮蔽領域計算部と、
前記CG画像を生成するCG画像生成データに基づいて、前記第1の遮蔽領域計算部が算出した前記遮蔽領域を表示しない右目用のCG画像および前記第2の遮蔽領域計算部が算出した前記遮蔽領域を表示しない左目用のCG画像をそれぞれ生成する画像生成部と、
前記画像生成部が生成した右目用の前記CG画像および左目用の前記CG画像を前記第1のレンズおよび前記第2のレンズに投射する表示部と、
を有する、ヘッドマウントディスプレイ装置。 - 請求項2記載のヘッドマウントディスプレイ装置において、
前記第1の情報生成部および前記第2の情報生成部が生成する前記オクルージョン情報は、前記第1のカメラおよび前記第2のカメラから物体までの距離を示す物体距離と、両目にて物体を注視した際に前記物体にて両眼の視線が交差する角度である輻輳角とを含む、ヘッドマウントディスプレイ装置。 - 請求項3記載のヘッドマウントディスプレイ装置において、
前記画像生成部は、前記オクルージョン情報に含まれる前記物体距離および前記輻輳角に基づいて、右目用のCG画像および左目用のCG画像の前記遮蔽領域をそれぞれ算出する、ヘッドマウントディスプレイ装置。 - 請求項4記載のヘッドマウントディスプレイ装置において、
前記第1の情報生成部および前記第2の情報生成部が生成する前記オクルージョン情報は、表示する前記CG画像の距離情報に応じて設定されるぼけ量を含み、
前記画像生成部は、CG画像の表示距離に見合ったぼけ量を前記オクルージョン情報から取得して、取得した前記ぼけ量に応じて、前記遮蔽領域を表示しない右目用のCG画像および前記遮蔽領域を表示しない左目用のCG画像の輪郭をぼかす処理を行い、
前記CG画像の表示距離は、前記CG画像生成データに含まれる情報である、ヘッドマウントディスプレイ装置。 - 請求項4記載のヘッドマウントディスプレイ装置において、
前記第1の情報生成部および前記第2の情報生成部が生成する前記オクルージョン情報は、表示する前記CG画像の距離情報および大きさに応じて設定されるぼけ量を含み、
前記画像生成部は、CG画像の表示距離および大きさに見合ったぼけ量を前記オクルージョン情報から取得して、取得した前記ぼけ量に応じて、前記遮蔽領域を表示しない右目用のCG画像および前記遮蔽領域を表示しない左目用のCG画像の輪郭をぼかす処理を行い、
前記CG画像の表示距離および大きさは、前記CG画像生成データに含まれる距離情報に応じて生成される、ヘッドマウントディスプレイ装置。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201880099966.1A CN113170090A (zh) | 2018-12-04 | 2018-12-04 | 头戴式显示装置 |
US17/299,114 US11582441B2 (en) | 2018-12-04 | 2018-12-04 | Head mounted display apparatus |
PCT/JP2018/044569 WO2020115815A1 (ja) | 2018-12-04 | 2018-12-04 | ヘッドマウントディスプレイ装置 |
JP2020558712A JP7148634B2 (ja) | 2018-12-04 | 2018-12-04 | ヘッドマウントディスプレイ装置 |
JP2022151752A JP2022183177A (ja) | 2018-12-04 | 2022-09-22 | ヘッドマウントディスプレイ装置 |
US18/150,431 US11956415B2 (en) | 2018-12-04 | 2023-01-05 | Head mounted display apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/044569 WO2020115815A1 (ja) | 2018-12-04 | 2018-12-04 | ヘッドマウントディスプレイ装置 |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US17/299,114 A-371-Of-International US11582441B2 (en) | 2018-12-04 | 2018-12-04 | Head mounted display apparatus |
US18/150,431 Continuation US11956415B2 (en) | 2018-12-04 | 2023-01-05 | Head mounted display apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020115815A1 true WO2020115815A1 (ja) | 2020-06-11 |
Family
ID=70975335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2018/044569 WO2020115815A1 (ja) | 2018-12-04 | 2018-12-04 | ヘッドマウントディスプレイ装置 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11582441B2 (ja) |
JP (2) | JP7148634B2 (ja) |
CN (1) | CN113170090A (ja) |
WO (1) | WO2020115815A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022123723A1 (ja) * | 2020-12-10 | 2022-06-16 | マクセル株式会社 | 携帯端末および電子メガネ |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10484824B1 (en) * | 2015-06-26 | 2019-11-19 | Lucasfilm Entertainment Company Ltd. | Content presentation and layering across multiple devices |
US11582441B2 (en) * | 2018-12-04 | 2023-02-14 | Maxell, Ltd. | Head mounted display apparatus |
US20240062483A1 (en) * | 2022-08-22 | 2024-02-22 | Samsung Electronics Co., Ltd. | Method and device for direct passthrough in video see-through (vst) augmented reality (ar) |
JP2024122802A (ja) * | 2023-02-28 | 2024-09-09 | 富士フイルム株式会社 | プロセッサ、表示制御方法、及び表示制御プログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10112831A (ja) * | 1996-10-07 | 1998-04-28 | Minolta Co Ltd | 実空間画像と仮想空間画像の表示方法及び表示装置 |
JPH10327433A (ja) * | 1997-05-23 | 1998-12-08 | Minolta Co Ltd | 合成画像の表示装置 |
JP2006209664A (ja) * | 2005-01-31 | 2006-08-10 | Canon Inc | システム、画像処理装置、情報処理方法 |
US20120206452A1 (en) * | 2010-10-15 | 2012-08-16 | Geisner Kevin A | Realistic occlusion for a head mounted augmented reality display |
JP2015230695A (ja) * | 2014-06-06 | 2015-12-21 | キヤノン株式会社 | 情報処理装置及び情報処理方法 |
US20180275410A1 (en) * | 2017-03-22 | 2018-09-27 | Magic Leap, Inc. | Depth based foveated rendering for display systems |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1686554A3 (en) | 2005-01-31 | 2008-06-18 | Canon Kabushiki Kaisha | Virtual space generating system, image processing apparatus and information processing method |
US20150156481A1 (en) * | 2009-03-19 | 2015-06-04 | Real Time Companies | Heads up display (hud) sensor system |
KR101828805B1 (ko) * | 2011-07-07 | 2018-03-29 | 삼성전자주식회사 | 스테레오 카메라의 3차원 줌 영상 생성 방법 및 장치 |
US20130141419A1 (en) | 2011-12-01 | 2013-06-06 | Brian Mount | Augmented reality with realistic occlusion |
AU2014204252B2 (en) * | 2013-01-03 | 2017-12-14 | Meta View, Inc. | Extramissive spatial imaging digital eye glass for virtual or augmediated vision |
US9239460B2 (en) * | 2013-05-10 | 2016-01-19 | Microsoft Technology Licensing, Llc | Calibration of eye location |
JP5916248B2 (ja) | 2014-02-25 | 2016-05-11 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置、画像生成方法、プログラムおよびコンピュータ読取り可能な情報記憶媒体 |
US10306217B2 (en) * | 2015-04-17 | 2019-05-28 | Seiko Epson Corporation | Display device, control method for display device, and computer program |
CN109791346B (zh) * | 2016-09-27 | 2021-04-20 | 斯纳普公司 | 眼镜装置模式指示 |
JP7116410B2 (ja) * | 2017-03-31 | 2022-08-10 | 株式会社バンダイナムコエンターテインメント | プログラム及び画像生成システム |
JP6891600B2 (ja) | 2017-03-31 | 2021-06-18 | 富士通株式会社 | 情報処理装置 |
GB201709199D0 (en) * | 2017-06-09 | 2017-07-26 | Delamont Dean Lindsay | IR mixed reality and augmented reality gaming system |
US11582441B2 (en) * | 2018-12-04 | 2023-02-14 | Maxell, Ltd. | Head mounted display apparatus |
-
2018
- 2018-12-04 US US17/299,114 patent/US11582441B2/en active Active
- 2018-12-04 JP JP2020558712A patent/JP7148634B2/ja active Active
- 2018-12-04 CN CN201880099966.1A patent/CN113170090A/zh active Pending
- 2018-12-04 WO PCT/JP2018/044569 patent/WO2020115815A1/ja active Application Filing
-
2022
- 2022-09-22 JP JP2022151752A patent/JP2022183177A/ja active Pending
-
2023
- 2023-01-05 US US18/150,431 patent/US11956415B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10112831A (ja) * | 1996-10-07 | 1998-04-28 | Minolta Co Ltd | 実空間画像と仮想空間画像の表示方法及び表示装置 |
JPH10327433A (ja) * | 1997-05-23 | 1998-12-08 | Minolta Co Ltd | 合成画像の表示装置 |
JP2006209664A (ja) * | 2005-01-31 | 2006-08-10 | Canon Inc | システム、画像処理装置、情報処理方法 |
US20120206452A1 (en) * | 2010-10-15 | 2012-08-16 | Geisner Kevin A | Realistic occlusion for a head mounted augmented reality display |
JP2015230695A (ja) * | 2014-06-06 | 2015-12-21 | キヤノン株式会社 | 情報処理装置及び情報処理方法 |
US20180275410A1 (en) * | 2017-03-22 | 2018-09-27 | Magic Leap, Inc. | Depth based foveated rendering for display systems |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022123723A1 (ja) * | 2020-12-10 | 2022-06-16 | マクセル株式会社 | 携帯端末および電子メガネ |
Also Published As
Publication number | Publication date |
---|---|
US20230156176A1 (en) | 2023-05-18 |
JP7148634B2 (ja) | 2022-10-05 |
JPWO2020115815A1 (ja) | 2021-09-30 |
US11956415B2 (en) | 2024-04-09 |
CN113170090A (zh) | 2021-07-23 |
US20220060680A1 (en) | 2022-02-24 |
JP2022183177A (ja) | 2022-12-08 |
US11582441B2 (en) | 2023-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7094266B2 (ja) | 単一深度追跡型の遠近調節-両眼転導ソリューション | |
WO2020115815A1 (ja) | ヘッドマウントディスプレイ装置 | |
JP4794678B1 (ja) | 映像処理装置、映像処理方法、および映像通信システム | |
WO2013175923A1 (ja) | シミュレーション装置 | |
WO2014128752A1 (ja) | 表示制御装置、表示制御プログラム、および表示制御方法 | |
JP2014219621A (ja) | 表示装置、表示制御プログラム | |
JP2017204674A (ja) | 撮像装置、ヘッドマウントディスプレイ、情報処理システム、および情報処理方法 | |
WO2014128748A1 (ja) | キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法 | |
KR20150088355A (ko) | 눈동자 이동 시점 생성을 지원하는 스테레오 라이트필드 입출력 장치 및 방법 | |
WO2014128751A1 (ja) | ヘッドマウントディスプレイ装置、ヘッドマウントディスプレイ用プログラム、およびヘッドマウントディスプレイ方法 | |
JP6509101B2 (ja) | 眼鏡状の光学シースルー型の両眼のディスプレイにオブジェクトを表示する画像表示装置、プログラム及び方法 | |
WO2014128750A1 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
JP6576639B2 (ja) | 電子眼鏡および電子眼鏡の制御方法 | |
JP6446465B2 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
EP3679453A1 (en) | A method of modifying an image on a computational device | |
US11543655B1 (en) | Rendering for multi-focus display systems | |
US11237413B1 (en) | Multi-focal display based on polarization switches and geometric phase lenses | |
JP6479835B2 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
KR20140115637A (ko) | 다수 사용자에 입체 영상을 제공하는 시스템 및 그 방법 | |
WO2019138515A1 (ja) | 画像作成装置、眼鏡レンズ選択システム、画像作成方法およびプログラム | |
JP6479836B2 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
US12143561B2 (en) | Image generation system and method | |
US20220232201A1 (en) | Image generation system and method | |
JP6814686B2 (ja) | 立体画像表示制御装置、立体画像表示制御方法及び立体画像表示制御プログラム | |
KR20180108314A (ko) | 사용자 인터렉션 정보를 반영하여 입체영상을 재생하는 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18942504 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2020558712 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 18942504 Country of ref document: EP Kind code of ref document: A1 |