CN102419631B - 虚拟内容到现实内容中的融合 - Google Patents
虚拟内容到现实内容中的融合 Download PDFInfo
- Publication number
- CN102419631B CN102419631B CN201110328586.0A CN201110328586A CN102419631B CN 102419631 B CN102419631 B CN 102419631B CN 201110328586 A CN201110328586 A CN 201110328586A CN 102419631 B CN102419631 B CN 102419631B
- Authority
- CN
- China
- Prior art keywords
- display
- virtual image
- user
- image
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0127—Head-up displays characterised by optical features comprising devices increasing the depth of field
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及虚拟内容到现实内容中的融合。描述了一种包括头戴式显示设备和连接到该头戴式显示设备的处理单元的系统,该系统用于将虚拟内容融合到现实内容中。在一个实施例中,该处理单元与中枢计算设备通信。该系统:创建空间的体积模型;将该模型分割成物体;标识出所述物体中的包括第一物体的一个或多个物体;以及在(头戴式显示器的)显示器上将虚拟图像显示在第一物体之上,该显示器允许通过该显示器实际直接地查看该空间的至少一部分。
Description
技术领域
本发明涉及虚拟内容到现实内容中的融合。
背景技术
扩展现实是一种允许将虚拟图像与现实世界物理环境相混合的技术。例如,扩展现实系统可以用于将恐龙的图像插入到用户房间的视图中,使得该用户看见恐龙在房间中走动。
扩展现实要解决的更困难的问题之一是将虚拟物体覆盖在现实物体之上的能力。例如,所期望的可能是遮蔽现实物体并且使其看上去是别的东西。可替代地,所期望的可能是将看上去是场景的一部分的新图像添加到该场景中,从而要求该新图像挡住该场景中的现实物体的全部或一部分的视图。
用虚拟图像遮蔽现实物体可能是复杂的。
发明内容
在此所述的技术提供了一种系统,其用于将虚拟内容融合到现实内容中,使得虚拟物体的图像可以挡住现实物体的视图的全部或一部分。使用一个或多个传感器来扫描环境以及构建所扫描的环境的模型。使用该模型,该系统将虚拟图像添加到用户对环境的视图中的参考现实世界物体的位置处。例如,该系统可以被配置为创建房间的模型并且添加假想的巨石的虚拟图像以替换房间中的现实咖啡桌。用户佩戴具有显示元件的头戴式显示设备(或其他合适的装置)。该显示元件允许用户通过显示元件查看房间,由此允许通过该显示元件实际直接地查看房间。该显示元件还提供将虚拟图像投影到用户的视野内使得虚拟图像看上去处于该房间内这一能力。该系统自动地跟踪用户所查看之处,使得该系统可以确定:将巨石的虚拟图像例如插入到用户的视野中的何处。一旦系统得知要将虚拟图像投影到何处,则该图像就使用显示元件被投影。
在一些实施例中,可以使用与该显示元件对齐的滤光器来选择性地阻挡到达显示元件的光。这允许该系统使虚拟图像将被投影到的地方暗化,从而使得更易于看见虚拟图像并且更难以看见虚拟图像之后的现实世界物体。在上面的示例中,滤光器将用于使咖啡桌难以被看见,使得当巨石被投影到咖啡桌之上时,观众很好地看见巨石,但是不能很好地看见(或者完全不能看见)咖啡桌。
一个实施例包括:创建空间的体积模型;将该模型分割成物体;标识出所述物体中的包括第一物体的一个或多个物体;以及在显示器上自动地将虚拟图像显示在第一物体之上,该显示器允许通过该显示器实际直接地查看该空间的至少一部分。
一个示例性实施方式中包括头戴式显示设备、以及与该头戴式显示设备通信的处理单元。该头戴式显示设备包括:显示器,其允许通过该显示器对第一物体的实际直接视图;不透明度滤光器,其与该显示器对齐使得穿过该不透明度滤光器的光也穿过该显示器;惯性传感器,其感测该头戴式显示设备的取向信息;第一通信接口;以及一个或多个控制电路,其与该显示器、该不透明度滤光器、该惯性传感器、以及第一通信接口进行通信。处理单元包括:第二通信接口,其与第一通信接口通信;以及一个或多个控制电路,其通过第一通信接口和第二通信接口与头戴式显示设备通信以自动地在该显示器上显示虚拟图像。
提供本发明内容以便以简化形式介绍在以下具体实施方式中进一步描述的一些概念。本发明内容并非旨在标识所要求保护的主题的关键特征或必要特征,也不旨在用于帮助确定所要求保护的主题的范围。此外,所要求保护的主题不限于解决在本公开的任何部分中提及的任何或所有缺点的实现。
附图说明
图1是描绘了用于将虚拟内容融合到现实内容中的系统的一个实施例的示例性组件的框图。
图2是头戴式显示单元的一个实施例的一部分的顶视图。
图2A-2E提供了示出不透明度滤光器的操作的示例性图像。
图3是头戴式显示单元的组件的一个实施例的框图。
图4是与头戴式显示单元相关联的处理单元的组件的一个实施例的框图。
图5是与头戴式显示单元相关联的中枢计算系统的组件的一个实施例的框图。
图6是描绘可用于实现在此所述的中枢计算系统的计算系统的一个实施例的框图。
图7是描绘了可以将虚拟内容与现实内容相融合的多用户系统的框图。
图8是描述用于将虚拟内容与现实内容相融合的过程的一个实施例的流程图。
图8A是描述用于将虚拟内容与现实内容相融合的过程的一个实施例的流程图。
图9是描述用于创建空间的模型的过程的一个实施例的流程图。
图10是描述用于将模型分割成物体的过程的一个实施例的流程图。
图11是描述用于标识出物体的过程的一个实施例的流程图。
图11A是描述用于响应于移动物体来更新模型的过程的一个实施例的流程图。
图12是描述用于将虚拟物体投影到现实物体之上的过程的一个实施例的流程图。
图12A是描述用于基于光源和阴影来调整显示何物的过程的一个实施例的流程图。
图13是描述用于由中枢来跟踪用户和/或头戴式显示单元的位置和取向的过程的一个实施例的流程图。
图14是描述用于跟踪眼睛位置的过程的一个实施例的流程图。
图15是描述用于确定用户视角的过程的一个实施例的流程图。
具体实施方式
在此描述了一种可以将虚拟物体与现实物体相融合的系统。在一个实施例中,该系统包括头戴式显示设备、以及与该头戴式显示设备通信的处理单元。头戴式显示设备包括显示器,该显示器允许通过该显示器对现实世界物体的实际直接视图。该系统可以将虚拟图像投影到显示器上,其中所述虚拟图像可以由佩戴头戴式显示设备的人来查看,同时该人还通过该显示器来查看现实世界物体。使用各种传感器来检测位置和取向以便确定将虚拟图像投影到何处。
使用所述传感器中的一个或多个来扫描相邻环境以及构建所扫描的环境的模型。在一个实施例中,环境的扫描还可以包括:确定光源的位置、表面的反射率,这将使得该系统能够添加合适的阴影和现实表面上的反射。也就是说,该系统将映射表面的照明和反射率以用于反射和阴影。该模型被分割成物体,并且现实世界物体相对于该模型被标识出。使用该模型,虚拟图像被添加到该模型的视图的参考作为该模型的一部分的现实世界物体的位置处。该系统自动地跟踪用户正注视何处,使得该系统可以弄清用户通过安装在头部显示设备的显示器的视野。可以使用包括深度传感器、图像传感器、惯性传感器、眼睛位置传感器等在内的各种传感器来跟踪用户。
一旦该系统知道了用户的视野,则该系统就可以弄清:虚拟图像应当由头戴式显示设备的显示器投影到何处。然后,该图像通过如下方式被渲染:对该虚拟图像进行大小确定和定向;以及将经大小确定/定向的图像渲染在头戴式显示设备的显示器上。在一些实施例中,虚拟图像可以被改变以考虑到遮挡。在此所述的系统的一些实施方式包括:与头戴式显示设备的显示器对齐的滤光器以选择性地阻挡到达显示器的光。这允许该系统使虚拟图像将被投影到的区域变得更暗,从而使得更易于看见虚拟图像并且更难以看见虚拟图像之后的现实世界物体。
图1是描绘了用于将虚拟内容融合到现实内容中的系统10的一个实施例的示例性组件的框图。系统10包括通过线6与处理单元4通信的头戴式显示设备2。在其他实施例中,头戴式显示设备2经由无线通信来与处理单元4进行通信。在一个实施例中为眼镜形状的头戴式显示设备2被佩戴在用户的头上,使得用户可以通过显示器进行查看,并且从而具有该用户前方的空间的实际直接视图。使用术语“实际和直接视图”来指直接用人眼查看现实世界物体的能力,而不是查看对物体的所创建的图像表示。例如,在房间中通过眼镜进行查看将允许用户具有房间的实际直接视图,而在电视上查看房间的视频不是房间的实际直接视图。下面提供头戴式显示设备2的更多细节。
在一个实施例中,处理单元4被佩戴在用户的手腕上,并且包括许多用于操作头戴式显示设备2的计算能力。处理单元4可以与一个或多个中枢计算系统12无线地(例如WiFi、蓝牙、红外、或其他无线通信手段)通信。
中枢计算系统12可以是计算机、游戏系统或控制台等等。根据一示例性实施例,中枢计算系统12可以包括硬件组件和/或软件组件,使得中枢计算系统12可以用于执行诸如游戏应用、非游戏应用等等之类的应用。在一个实施例中,中枢计算系统12可以包括诸如标准化处理器、专用处理器、微处理器等等之类的处理器,这些处理器可以执行存储在处理器可读存储设备上的指令以用于执行在此所述的过程。
中枢计算系统12还包括一个或多个捕捉设备,比如捕捉设备20A和20B。在其他实施例中,可以使用多于或少于两个的捕捉设备。在一个示例性实施方式中,捕捉设备20A和20B指向不同方向,使得它们可以捕捉房间的不同部分。可能有利的是,两个捕捉设备的视野稍微地重叠,使得中枢计算系统12可以理解捕捉设备的视野如何彼此相关。通过这种方式,可以使用多个捕捉设备来查看整个房间(或其他空间)。可替代地,如果捕捉设备可以在操作期间平移,使得整个相关空间随时间被捕捉设备查看,则可以使用一个捕捉设备。
捕捉设备20A和20B例如可以是相机,该相机在视觉上监视一个或多个用户和周围空间,使得可以捕捉、分析并跟踪该一个或多个用户所执行的姿势和/或运动以及周围空间的结构,以在应用中执行一个或多个控制或动作和/或使化身或屏上人物动画化。
中枢计算环境12可以连接到诸如电视机、监视器、高清电视机(HDTV)等可提供游戏或应用程序视觉的视听设备16。例如,中枢计算系统12可包括诸如图形卡等视频适配器和/或诸如声卡等音频适配器,这些适配器可提供与游戏应用、非游戏应用等相关联的视听信号。视听设备16可从中枢计算系统12接收视听信号,并且然后可以输出与视听信号相关联的游戏或应用视觉和/或音频。根据一个实施例,视听设备16可经由例如,S-视频电缆、同轴电缆、HDMI电缆、DVI电缆、VGA电缆、分量视频电缆、RCA电缆等连接至中枢计算系统12。在一个示例中,视听设备16包括内置扬声器。在其他实施例中,视听设备16、单独的立体声系统或中枢计算设备12连接到外部扬声器22。
中枢计算设备10可以与捕捉设备20A和20B一起用于识别、分析和/或跟踪人类(以及其他类型的)目标。例如,可使用捕捉设备20A和20B来跟踪佩戴头戴式显示设备2的用户,使得可以捕捉用户的姿势和/或运动来使化身或屏幕上人物动画化,和/或可将用户的姿势和/或移动解释为可用于影响中枢计算系统12所执行的应用的控制。
图2描绘了头戴式显示设备2的顶视图,其包括镜架的包含镜腿102和鼻中104的那部分。仅仅描绘了头戴式显示设备2的右侧。在鼻中104中置入了话筒110以用于记录声音以及将音频数据传送给处理单元4,这将在下面予以描述。在头戴式显示设备2的前方是朝向可捕捉视频和静止图像的视频相机113的房间。这些图像被传送给处理单元4,这将在下面予以描述。
头戴式显示设备2的镜架的一部分将围绕显示器(其包括一个或多个透镜)。为了示出头戴式显示设备2的组件,未描绘围绕显示器的镜架部分。该显示器包括光导光学元件112、不透明度滤光器114、透视透镜116和透视透镜118。在一个实施例中,不透明度滤光器114处于透视透镜116之后并与其对齐,光导光学元件112处于不透明度滤光器114之后并与其对齐,并且透视透镜118处于光导光学元件112之后并与其对齐。在该示例中,透视透镜116和118是眼镜中使用的标准透镜,并且可根据任何处方(包括不根据处方)来制作。在一个实施例中,透视透镜116和118可以被可变处方透镜替换。在一些实施例中,头戴式显示设备2将仅仅包括一个透视透镜或者不包括透视透镜。在另一替代方案中,处方透镜可以进入光导光学元件112内。不透明度滤光器114滤除自然光(要么以每像素为基础、要么均匀地)以增强虚拟图像的对比度。光导光学元件112将人造光引导至眼睛。下面提供不透明度滤光器114和光导光学元件112的更多细节。
在镜腿102处或镜腿102内安装有图像源,该图像源(在一个实施例中)包括用于对虚拟图像进行投影的微显示器120、以及用于将图像从微显示器120引导到光导光学元件112中的透镜。在一个实施例中,透镜122是准直透镜。
控制电路136提供支承头戴式显示设备2的其他组件的各种电子装置。下面参考图3提供控制电路136的更多细节。处于镜腿102内部或安装在镜腿102处的有耳机130、惯性传感器132、以及温度传感器138。在一个实施例中,惯性传感器132包括三轴磁力计132A、三轴陀螺仪132B、以及三轴加速度计132C(参见图3)。惯性传感器用于感测头戴式显示设备2的位置、取向、以及突然加速。
微显示器120通过透镜122来投影图像。存在着可用于实现微显示器120的不同的图像生成技术。例如,微显示器120可以使用透射投影技术来实现,其中光源由光学活性材料来调制,用白光从背后照亮。这些技术通常是使用具有强大背光和高光能量密度的LCD类型的显示器来实现的。微显示器120还可使用反射技术来实现,其中外部光被光学活性材料反射并调制。根据该技术,由白光源或RGB源点亮的照明是向前的。数字光处理(DLP)、硅上液晶(LCOS)、以及来自Qualcomm有限公司的Mirasol显示技术都是高效的反射技术的示例,因为大多数能量从已调制结构反射离开并且可用在本文描述的系统中。附加地,微显示器120可以使用发射技术来实现,其中光由该显示器生成。例如,来自Microvision有限公司的PicoPTM显示引擎使用微型镜面舵来将激光信号发射到充当透射元件的小型屏幕上或直接照射到眼睛(例如激光)。
光导光学元件112将来自微显示器120的光传送到佩戴头戴式显示设备2的用户的眼睛140。光导光学元件112还允许如箭头142所示那样将光从头戴式显示设备2的前方通过光导光学元件112透射到用户的眼睛,从而除接收来自微显示器120的虚拟图像之外还允许用户具有头戴式显示设备2的前方的空间的实际直接视图。因此,光导光学元件112的壁是透视的。光导光学元件112包括第一反射面124(例如,镜面或其他表面)。来自微显示器120的光穿过透镜122并入射在反射面124上。反射面124反射来自微显示器120的入射光,使得光通过内反射而被捕获在包括光导光学元件112的平面衬底内。在离开衬底的表面的若干反射之后,所捕获的光波到达选择性反射面126的阵列。注意,五个表面中只有一个被标记为126以防止附图太过拥挤。反射面126将从衬底出射并入射在这些反射面上的光波耦合到用户的眼睛140。由于不同光线将以不同角度传播并弹离衬底的内部,因此这些不同的光线将以不同角度击中各个反射面126。因此,不同光线将被所述反射面中的不同反射面从衬底中反射出。关于哪些光线被哪个表面126从衬底反射出的选择是通过选择表面126的合适角度来设计的。光导光学元件的更多细节可以在于2008年11月20日公开的美国专利申请公开号2008/0285140、序列号12/214,366的“Substrate-GuidedOptical Devices(衬底导向的光学设备)”中找到,该申请的全部内容通过引用结合于此。在一个实施例中,每只眼睛将具有其自己的光导光学元件112。当头戴式显示设备具有两个光导光学元件时,每只眼睛都可以具有其自己的微显示器120,该微显示器120可以在两只眼睛中显示相同图像或者在两只眼睛中显示不同图像。在另一实施例中,可以存在将光反射到两只眼睛中的一个光导光学元件。
与光导光学元件112对齐的不透明度滤光器114要么均匀地、要么以每像素为基础来选择性地阻挡自然光,以免其穿过光导光学元件112。在一实施例中,不透明度滤光器可以是透视LCD面板、电致变色膜(electrochromic film)或能够充当不透明度滤光器的类似设备。通过从常规LCD中除去衬底、背光和漫射器的各层,可以获得这样的透视LCD面板。LCD面板可包括一个或更多个透光LCD芯片,所述透光LCD芯片允许光穿过液晶。例如,在LCD投影仪中使用了这样的芯片。
不透明度滤光器114可以包括致密的像素网格,其中每个像素的透光率能够在最小和最大透光率之间被个别化地控制。尽管0-100%的透光率范围是理想的,然而更有限的范围也是可以接受的。作为示例,具有不超过两个偏振滤光器的单色LCD面板足以提供每像素约50%到90%的不透明度范围,最高为该LCD的分辨率。在50%的最小值处,透镜将具有稍微带色彩的外观,这是可以容忍的。100%的透光率表示完美地无色透镜。可以从0-100%定义“阿尔法(alpha)”尺度,其中0%不允许光穿过,并且100%允许所有光穿过。可以由下面描述的不透明度滤光器控制电路224为每个像素设置阿尔法的值。
在用代理为现实世界物体进行z-缓冲(z-buffering)之后,可以使用来自渲染流水线的阿尔法值的掩码(mask)。当系统为扩展现实显示而渲染场景时,该系统注意到哪些现实世界物体处于哪些虚拟物体之前。如果虚拟物体处于现实世界物体之前,则不透明度对于该虚拟物体的覆盖区域而言应当是开启的。如果虚拟物体(虚拟地)处于现实世界物体之后,则不透明度以及该像素的任何色彩都应当是关闭的,使得对于现实灯光的该相应区域(其大小为一个像素或更多)而言,用户将会仅仅看到现实世界物体。覆盖将是以逐像素为基础的,所以该系统可以处理虚拟物体的一部分处于现实世界物体之前、该虚拟物体的一部分处于现实世界物体之后、以及该虚拟物体的一部分与现实世界物体相重合的情况。对这种用途而言,最期望的是能够以低的成本、电力和重量从0%达到100%不透明度的显示器。此外,不透明度滤光器可以比如用彩色LCD或用诸如有机LED等其他显示器来以彩色进行渲染,以提供宽视野。于2010年9月21日提交的美国专利申请号12/887,426“Opacity Filter For See-ThroughMounted Display(用于透射安装显示器的不透明度滤光器)”中提供了不透明度滤光器的更多细节,该专利申请的全部内容通过应用结合于此。
诸如LCD之类的不透明度滤光器通常还未与在此所述的透视透镜一起使用,因为在与眼睛的该近距离下,其可能失焦。然而,在一些情况下,这个结果可能是所期望的。通过使用相加色(additive color)的普通HMD显示器(其被设计为是聚焦的),用户看到具有清晰彩色图形的虚拟图像。该LCD面板被放置在该显示器“之后”,使得模糊的黑色边界围绕任何虚拟内容,使其根据需要而不透明。该系统扭转了自然模糊化的缺陷以方便地获得了抗混叠和带宽减少的特征。这些是使用较低分辨率且失焦图像的自然结果。存在对数字采样图像的有效平滑化。任何数字图像都经历混叠,其中在光的波长附近,采样的离散性导致与自然模拟和连续信号相比的误差。平滑化意味着在视觉上更靠近理想的模拟信号。尽管在低分辨率丢失的信息没有被恢复,但是得到的误差的明显程度更低。
在一个实施例中,显示器和不透明度滤光器被同时渲染,并且被校准到用户在空间中的精确位置以补偿角度偏移问题。眼睛跟踪可用于计算视野的末端处的正确的图像偏移。在一些实施例中,在不透明度滤光器中可以使用不透明度的量在时间和空间上的淡化。类似地,在虚拟图像中可以使用在时间和空间上的淡化。在一个方案中,不透明度滤光器的不透明度的量在时间上的淡化对应于虚拟图像在时间上的淡化。在另一方案中,不透明度滤光器的不透明度的量在空间上的淡化对应于虚拟图像中在空间上的淡化。
在一个示例性方案中,从所标识出的用户眼睛的位置的视角出发,为不透明度滤光器的处于虚拟图像之后的像素提供增加的不透明度。通过这种方式,处于虚拟图像之后的像素被暗化,使得来自现实世界场景的相应部分的光被阻挡而无法到达用户的眼睛。这允许虚拟图像是逼真的并且表示全范围的色彩和强度。此外,因为可以以更低的强度提供虚拟图像,所以减少了扩展现实发射器的功耗。在没有不透明度滤光器的情况下,将需要以与现实世界场景的相应部分相比更亮的足够高的强度来提供虚拟图像,以使虚拟图像不同并且不是透明的。在暗化不透明度滤光器的像素时,一般而言,沿着虚拟图像的闭合周界的像素与周界内的像素一起被暗化。所期望的可能是提供一些重叠,使得恰好处于周界之外并且围绕周界的一些像素也被暗化(以相同的暗度级或者比周界内的像素暗度低)。恰好处于周界之外的这些像素可以提供从周界内的暗度到周界之外的完全量的不透明度的淡化(例如不透明度的逐渐过渡)。
为了提供不透明度滤光器的操作的示例,图2A描绘了森林的现实世界场景的示例,该森林是通过头戴式显示设备2进行查看的人眼可见的。图2B描绘了虚拟图像,该虚拟图像在该情况下是海豚。图2C描绘了基于图2B的虚拟图像的形状对不透明度滤光器进行的示例性配置。不透明度滤光器在应当渲染海豚之处提供了不透明度增加的暗化区域。增加的不透明度一般是指像素的暗化,这可以包括允许更少的光穿过。可以在单色方案中使用到不同灰度级(或黑色)的暗化,或者在彩色方案中使用到不同色彩级的暗化。图2D描绘了用户所看到的示例性图像,并且该图像是如下动作的结果:将海豚的虚拟图像投影到用户的视界中;以及使用不透明度滤光器来为与海豚的虚拟图像的位置相对应的像素去除光。如可以看见的那样,背景不是透过海豚可被看见的。为了比较的目的,图2E示出了在不使用不透明度滤光器的情况下将虚拟图像插入到现实图像中。如可以看见的那样,现实背景可以透过海豚的虚拟图像被看见。
头戴式显示设备2还包括用于跟踪用户的眼睛位置的系统。如下面将会解释的那样,该系统将跟踪用户的位置和取向,使得该系统可以确定用户的视野。然而,人类将不会察觉处于其之前的所有事物。相反,用户的眼睛将对准环境的子集。因此,在一个实施例中,该系统将包括用于跟踪用户的眼睛位置的技术以便细化对用户视野的测量。例如,头戴式显示设备2包括眼睛跟踪部件134(参见图2),该眼睛跟踪部件134将包括眼睛跟踪照明设备134A和眼睛跟踪相机134B(参见图3)。在一个实施例中,眼睛跟踪照明源134A包括一个或多个红外(IR)发射器,这些红外发射器向眼睛发射IR光。眼睛跟踪相机134B包括一个或多个感测所反射的IR光的相机。通过检测角膜的反射的已知的成像技术,可以标识出瞳孔的位置。例如,参见2008年7月22日颁发给Kranz等人的、名称为“Head mounted eye tracking and display system(头戴式眼睛跟踪和显示系统)”的美国专利7,401,920,该专利通过引用结合于此。这样的技术可以定位眼睛的中心相对于跟踪相机的位置。一般而言,眼睛跟踪涉及获得眼睛的图像以及使用计算机视觉技术来确定瞳孔在眼眶内的位置。在一个实施例中,跟踪一只眼睛的位置就足够了,因为眼睛通常一致地移动。然而,单独地跟踪每只眼睛是可能的。
在一个实施例中,该系统将使用以矩形布置的4个IR LED和4个IR光电检测器,使得在头戴式显示设备2的透镜的每个角处存在一个IR LED和IR光电检测器。来自LED的光从眼睛反射离开。由在4个IR光电检测器中的每个处所检测到的红外光的量来确定瞳孔位置。也就是说,眼睛中眼白相对于眼黑的量将确定对于该特定光电检测器而言从眼睛反射离开的光量。因此,光电检测器将具有对眼睛中的眼白或眼黑的量的度量。从4个采样中,该系统可以确定眼睛的方向。
另一替代方案是如下面所讨论的那样使用4个红外LED,但是在头戴式显示设备2的透镜的侧边处仅仅使用一个红外CCD。该CCD将使用小镜和/或透镜(鱼眼),使得CCD可以从镜框对高达75%的可见眼睛进行成像。然后,该CCD将感测图像并且使用计算机视觉来找出该图像,就像下面所讨论的那样。因此,尽管图2示出了具有一个IR发射器的一个部件,但是图2的结构可以被调整为具有4个IR发射机和/或4个IR传感器。也可以使用多于或少于4个的IR发射机和/多于或少于4个的IR传感器。
用于跟踪眼睛方向的另一实施例基于电荷跟踪。该方案基于如下观察:视网膜携带可测量的正电荷并且角膜具有负电荷。传感器通过用户的耳朵来安装(靠近耳机130)以检测眼睛在周围运动时的电势并且有效地实时读出眼睛正在进行的动作。也可以使用其他用于跟踪眼睛的实施例。
图2仅仅示出了头戴式显示设备2的一半。完整的头戴式显示设备将包括另一组透视透镜、另一不透明度滤光器、另一光导光学元件、另一微显示器136、另一透镜122、朝向房间的相机、眼睛跟踪部件、微显示器、耳机以及温度传感器。
图3是描绘了头戴式显示设备2的各个组件的框图。图4是描述处理单元4的各个组件的框图。图3中描绘了头戴式显示设备2的组件,该头戴式显示设备2用于通过将虚拟图像与用户对现实世界的视图相融合来向用户提供该虚拟图像。附加地,图3的头戴式显示设备组件包括跟踪各种状况的多个传感器。头戴式显示设备2将从处理单元4接收关于虚拟图像的指令,并且将传感器信息提供回给处理单元4。图3中描绘了处理单元4的组件,该处理单元4将从头戴式显示设备2、并且还从中枢计算设备12(参见图1)接收传感信息。基于该信息,处理单元4将确定在何处以及在何时向用户提供虚拟图像并相应地将指令发送给图3的头戴式显示设备。
注意,图3的组件中的一些(例如朝向背面的相机113、眼睛跟踪相机134B、微显示器120、不透明度滤光器114、眼睛跟踪照明134A、耳机130和温度传感器138)是以阴影示出的,以指示这些的设备中的每个都存在两个,其中一个用于头戴式显示设备2的左侧,并且一个用于头戴式显示设备2的右侧。图3示出与电源管理电路202通信的控制电路200。控制电路200包括处理器210、与存储器214(例如D-RAM)进行通信的存储器控制器212、相机接口216、相机缓冲区218、显示器驱动器220、显示格式化器222、定时生成器226、显示输出接口228、以及显示输入接口230。在一个实施例中,控制电路200的所有组件通过专用线路或一个或多个总线彼此通信。在另一实施例中,控制电路200的每个组件都与处理器210通信。相机接口216提供到两个朝向房间的相机113的接口,并且将从朝向房间的相机所接收到的图像存储在相机缓冲区218中。显示器驱动器220将驱动微显示器120。显式格式化器222向控制不透明度滤光器114的不透明度控制电路224提供关于微显示器120上所显示的虚拟图像的信息。定时生成器226被用于向该系统提供定时数据。显示输出接口228是用于将图像从朝向房间的相机113提供给处理单元4的缓冲区。显示输入230是用于接收诸如要在微显示器120上显示的虚拟图像之类的图像的缓冲区。显示输出228和显示输入230与作为到处理单元4的接口的带接口232进行通信。
电源管理电路202包括电压调节器234、眼睛跟踪照明驱动器236、音频DAC和放大器238、话筒前置放大器音频ADC 240、温度传感器接口242、以及时钟生成器244。电压调节器234通过带接口232从处理单元4接收电能,并将该电能提供给头戴式显示设备2的其他组件。眼睛跟踪照明驱动器236如上面所述的那样为眼睛跟踪照明134A提供IR光源。音频DAC和放大器238从耳机130接收音频信息。话筒前置放大器和音频ADC 240提供话筒100的接口。温度传感器接口242是用于温度传感器138的接口。电源管理单元202还向三轴磁力计132A、三轴陀螺仪132B以及三轴加速度计132C提供电能并从其接收回数据。
图4是描述处理单元4的各个组件的框图。图4示出与电源管理电路306通信的控制电路304。控制电路304包括:中央处理单元(CPU)320;图形处理单元(GPU)322;高速缓存324;RAM 326;与存储器330(例如D-RAM)进行通信的存储器控制器328;与闪存334(或其他类型的非易失性存储)进行通信的闪存控制器332;通过带接口302和带接口232与头戴式显示设备2进行通信的显示输出缓冲区336;经由带接口302和带接口232与头戴式显示设备2进行通信的显示输入缓冲区338;与用于连接到话筒的外部话筒连接器342进行通信的话筒接口340,用于连接到无线通信设备346的PCI express接口;以及USB端口348。在一个实施例中,无线通信设备346可以包括启用Wi-Fi的通信设备、蓝牙通信设备、红外通信设备等。USB端口可以用于将处理单元4对接到中枢计算设备12,以便将数据或软件加载到处理单元4上以及对处理单元4进行充电。在一个实施例中,CPU 320和GPU 322是用于确定在何处、何时以及如何向用户的视野内插入虚拟图像的主负荷设备。下面提供更多的细节。
电源管理电路306包括时钟生成器360、模数转换器362、电池充电器364、电压调节器366、头戴式显示器电源376、以及与温度传感器374进行通信的温度传感器接口372(其位于处理单元4的腕带(wrist band)上)。模数转换器362连接到充电插孔370以用于接收AC电能并为该系统产生DC电能。电压调节器366与用于向该系统提供电能的电池368进行通信。电池充电器364被用来在从充电插孔370接收到电能时对电池368进行充电(通过电压调节器366)。HMD电源376向头戴式显示设备2提供电能。
上述系统将被配置为将虚拟图像插入到用户的视野中,使得该虚拟图像替换现实世界物体的视图。可替代地,虚拟图像可以在不替换现实世界物体的图像的情况下被插入。在各个实施例中,虚拟图像将基于被替换的物体或者该图像将被插入的环境而被调整为与合适的取向、大小和形状相匹配。另外,虚拟图像可以被调整为包括反射率和阴影。在一个实施例中,头戴式显示设备12、处理单元4以及中枢计算设备12一起工作,因为每个设备都包括用于获得用于确定在何处、何时以及如何插入虚拟图像的数据的传感器的子集。在一个实施例中,确定在何处、如何以及何时插入虚拟图像的计算是由中枢计算设备12执行的。在另一实施例中,这些计算由处理单元4来执行。在另一实施例中,这些计算中的一些由中枢计算设备12来执行,而其他计算由处理单元4来执行。在其他实施例中,这些计算可以由头戴式显示设备2来执行。
在一个示例性实施例中,中枢计算设备12将创建用户所处的环境的模型,并且跟踪在该环境中的多个移动物体。另外,中枢计算设备12通过跟踪头戴式显示设备2的位置和取向来跟踪头戴式显示设备2的视野。该模型和跟踪信息被从中枢计算设备12提供给处理单元4。由头戴式显示设备2所获得的传感器信息被传送给处理单元4。然后,处理单元4使用其从头戴式显示设备2接收的其他传感器信息来细化用户的视野并且向头戴式显示设备2提供关于如何、在何处以及何时插入虚拟图像的指令。
图5示出了具有捕捉设备的中枢计算系统12的示例性实施例。在一个实施例中,捕捉设备20A和20B是相同结构,因此,图5仅仅示出了捕捉设备20A。
根据一示例性实施例,捕捉设备20A可被配置为通过可包括例如飞行时间、结构化光、立体图像等在内的任何合适的技术来捕捉包括深度图像的带有深度信息的视频,该深度图像可包括深度值。根据一个实施例,捕捉设备20A可将深度信息组织成“Z层”、或者可与从深度相机沿其视线延伸的Z轴垂直的层。
如图5所示,捕捉设备20A可以包括相机组件423。根据一示例性实施例,相机组件423可以是或者可以包括可捕捉场景的深度图像的深度相机。深度图像可包括所捕捉的场景的二维(2-D)像素区域,其中2D像素区域中的每个像素都可以表示深度值,比如所捕捉的场景中的物体与相机相距的例如以厘米、毫米等为单位的距离。
相机组件23可以包括可用于捕捉场景的深度图像的红外(IR)光组件425、三维(3D)相机426、以及RGB(视觉图像)相机428。例如,在飞行时间分析中,捕捉设备20A的IR光组件425可以将红外光发射到场景上,并且然后可以使用传感器(在一些实施例中包括未示出的传感器)、例如使用3D相机426和/或RGB相机428来检测从场景中的一个或多个目标和物体的表面后向散射的光。在一些实施例中,可以使用脉冲红外光,使得可以测量出射光脉冲和相应的入射光脉冲之间的时间并将其用于确定从捕捉设备20A到场景中的目标或物体上的特定位置的物理距离。附加地,在其他示例性实施例中,可将出射光波的相位与入射光波的相位进行比较来确定相移。然后可以使用该相移来确定从捕捉设备到目标或物体上的特定位置的物理距离。
根据另一示例性实施例,可使用飞行时间分析,以通过经由包括例如快门式光脉冲成像之类的各种技术分析反射光束随时间的强度来间接地确定从捕捉设备20A到目标或物体上的特定位置的物理距离。
在另一示例性实施例中,捕捉设备20A可使用结构化光来捕捉深度信息。在这样的分析中,图案化光(即,被显示为诸如网格图案、条纹图案、或不同图案之类的已知图案的光)可经由例如IR光组件424被投影到场景上。在落到场景中的一个或多个目标或物体的表面上时,作为响应,图案可变形。图案的这种变形可由例如3D相机426和/或RGB相机428(和/或其他传感器)来捕捉,然后可被分析以确定从捕捉设备到目标或物体上的特定位置的物理距离。在一些实施方式中,IR光组件425与相机425和426分开,使得可以使用三角测量来确定与相机425和426相距的距离。在一些实施方式中,捕捉设备20A将包括感测IR光的专用IR传感器或具有IR滤光器的传感器。
根据另一实施例,捕捉设备20A可以包括两个或更多个在物理上分开的相机,这些相机可以从不同的角度观察场景以获得视觉立体数据,这些视觉立体数据可以被分辨以生成深度信息。也可使用其他类型的深度图像传感器来创建深度图像。
捕捉设备20A还可以包括话筒430,所述话筒430包括可以接收声音并将其转换成电信号的换能器或传感器。话筒430可用于接收也可由中枢计算系统12来提供的音频信号。
在一示例实施例中,捕捉设备20A还可包括可与图像相机组件423进行通信的处理器432。处理器432可包括可执行指令的标准处理器、专用处理器、微处理器等,这些指令例如包括用于接收深度图像、生成合适的数据格式(例如,帧)以及将数据传送给计算系统12的指令。
捕捉设备20A还可包括存储器434,该存储器434可存储由处理器432执行的指令、由3D相机和/或RGB相机所捕捉的图像或图像帧、或任何其他合适的信息、图像等等。根据一示例性实施例,存储器434可包括随机存取存储器(RAM)、只读存储器(ROM)、高速缓存、闪存、硬盘或任何其他合适的存储组件。如图5所示,在一个实施例中,存储器434可以是与图像捕捉组件423和处理器432进行通信的单独组件。根据另一实施例,存储器组件434可被集成到处理器432和/或图像捕捉组件422中。
捕捉设备20A和20B通过通信链路436与中枢计算系统12通信。通信链路436可以是包括例如USB连接、火线连接、以太网电缆连接等的有线连接和/或诸如无线802.11b、802.11g、802.11a或802.11n连接等的无线连接。根据一个实施例,中枢计算系统12可以通过通信链路436向捕捉设备20A提供可用于确定例如何时捕捉场景的时钟。附加地,捕捉设备20A通过通信链路436将由例如3D相机426和/或RGB相机428捕捉的深度信息和视觉(例如RGB)图像提供给中枢计算系统12。在一个实施例中,深度图像和视觉图像以每秒30帧的速率来传送,但是可以使用其他帧速率。中枢计算系统12然后可以创建模型并使用模型、深度信息、以及所捕捉的图像来例如控制诸如游戏或文字处理程序等的应用和/或使化身或屏上人物动画化。
中枢计算系统12包括深度图像处理和骨架跟踪模块450,该模块使用深度图像来跟踪可被捕捉设备20A的深度相机功能检测到的一个或多个人。深度图像处理和骨架跟踪模块450向应用453提供跟踪信息,该应用可以是视频游戏、生产性应用、通信应用或其他软件应用等。音频数据和视觉图像数据也被提供给应用452和深度图像处理和骨架跟踪模块450。应用452将跟踪信息、音频数据和视觉图像数据提供给识别器引擎454。在另一实施例中,识别器引擎454直接从深度图像处理和骨架跟踪模块450接收跟踪信息,并直接从捕捉设备20A和20B接收音频数据和视觉图像数据。
识别器引擎454与过滤器460、462、464、……、466的集合相关联,每个过滤器都包括关于可被捕捉设备20A或20B检测到的任何人或物体执行的姿势、动作或状况的信息。例如,来自捕捉设备20A的数据可由过滤器460、462、464、……、466来处理,以便标识出一个用户或一组用户已经何时执行了一个或多个姿势或其他动作。这些姿势可与应用452的各种控制、物体或状况相关联。因此,中枢计算系统12可以将识别器引擎454和过滤器一起用于解释和跟踪物体(包括人)的移动。
捕捉设备20A和20B向中枢计算系统12提供RGB图像(或其他格式或色彩空间的视觉图像)和深度图像。深度图像可以是多个观测到的像素,其中每个观测到的像素具有观测到的深度值。例如,深度图像可包括所捕捉的场景的二维(2D)像素区域,其中2D像素区域中的每个像素都可具有深度值,比如所捕捉的场景中的物体与捕捉设备相距的距离。中枢计算系统12将使用RGB图像和深度图像来跟踪用户或物体的移动。例如,系统将使用深度图像来跟踪人的骨架。可以使用许多方法以通过使用深度图像来跟踪人的骨架。使用深度图像来跟踪骨架的一个合适的示例在2009年10月21日提交的美国专利申请12/603,437“Pose Tracking Pipeline(姿态跟踪流水线)”(以下称为’437申请)中提供,该申请的全部内容通过引用结合于此。‘437申请的过程包括:采集深度图像;对数据进行降采样;移除和/或平滑化高方差噪声数据;标识并移除背景;以及将前景像素中的每个分配给身体的不同部位。基于这些步骤,系统将使一模型拟合到该数据并创建骨架。该骨架将包括一组关节和这些关节之间的连接。也可使用用于跟踪的其他方法。合适的跟踪技术也在以下4个美国专利申请中公开,所有这些申请的全部内容都通过引用结合于此:2009年5月29日提交的美国专利申请12/475,308“Device for Identifying and TrackingMultiple Humans Over Time(用于随时间标识并跟踪多个人的设备)”;2010年1月29日提交的美国专利申请12/696,282“Visual Based Identity Tracking(基于视觉的身份跟踪)”;2009年12月18日提交的美国专利申请12/641,788“Motion Detection Using Depth Images(使用深度图像的运动检测)”;以及2009年10月7日提交的美国专利申请12/575,388“Human Tracking System(人类跟踪系统)”。
识别器引擎454包括多个过滤器460、462、464、……、466来确定姿势或动作。过滤器包括定义姿势、动作或状况以及该姿势、动作或状况的参数或元数据的信息。例如,包括一只手从身体背后经过身体前方的运动的投掷可被实现为包括表示用户的一只手从身体背后经过身体前方的运动的信息的姿势,因为该运动将由深度相机来捕捉。然后可为该姿势设定参数。当姿势是投掷时,参数可以是该手必须达到的阈值速度、该手必须行进的距离(绝对的,或相对于用户的整体大小)、以及识别器引擎对发生了该姿势的置信度评级。用于姿势的这些参数可以随时间在各应用之间、在单个应用的各上下文之间、或在一个应用的一个上下文内变化。
过滤器可以是模块化的或是可互换的。在一个实施例中,过滤器具有多个输入(这些输入中的每一个具有一类型)以及多个输出(这些输出中的每一个具有一类型)。第一过滤器可用具有与第一过滤器相同数量和类型的输入和输出的第二过滤器来替换而不更改识别器引擎架构的任何其他方面。例如,可能具有要驱动的第一过滤器,该第一过滤器将骨架数据作为输入,并输出与该过滤器相关联的姿势正在发生的置信度和转向角。在希望用第二驱动过滤器来替换该第一驱动过滤器的情况下(这可能是因为第二驱动过滤器更高效且需要更少的处理资源),可以通过简单地用第二过滤器替换第一过滤器来这样做,只要第二过滤器具有同样的输入和输出——骨架数据类型的一个输入、以及置信度类型和角度类型的两个输出。
过滤器不需要具有参数。例如,返回用户的高度的“用户高度”过滤器可能不允许可被调节的任何参数。可替代的“用户高度”过滤器可具有可调节参数,比如在确定用户的高度时是否考虑用户的鞋、发型、头饰以及体态。
对过滤器的输入可包括诸如关于用户的关节位置的关节数据、在关节处相交的骨所形成的角度、来自场景的RGB色彩数据、以及用户的某一方面的变化速率等内容。来自过滤器的输出可包括诸如正作出给定姿势的置信度、作出姿势运动的速度、以及作出姿势运动的时间等内容。
识别器引擎454可以具有向过滤器提供功能的基本识别器引擎。在一实施例中,识别器引擎454所实现的功能包括:跟踪所识别的姿势和其他输入的随时间输入(input-over-time)存档;隐马尔可夫模型实施方式(其中所建模的系统被假定为马尔可夫过程—该过程是其中当前状态封装了用于确定将来状态所需的任何过去状态信息,因此不必为此目的而维护任何其他过去状态信息的过程—该过程具有未知参数,并且隐藏参数是从可观察数据来确定的);以及求解姿势识别的特定实例所需的其他功能。
过滤器460、462、464、……、466在识别器引擎454之上加载并实现,并且可利用识别器引擎454提供给所有过滤器460、462、464、……、466的服务。在一个实施例中,识别器引擎454接收数据来确定该数据是否满足任何过滤器460、462、464、……、466的要求。由于这些所提供的诸如解析输入之类的服务是由识别器引擎454一次性提供而非由每个过滤器460、462、464、……、466提供的,因此这样的服务在一段时间内只需被处理一次而不是在该时间段对每个过滤器处理一次,因此减少了确定姿势所需的处理。
应用452可使用识别器引擎454所提供的过滤器460、462、464、……、466,或者它可提供其自己的、插入到识别器引擎454中的过滤器。在一实施例中,所有过滤器具有启用该插入特性的通用接口。此外,所有过滤器可利用参数,因此可使用以下单个姿势工具来诊断并调节整个过滤器系统。
关于识别器引擎454的更多信息可在2009年4月13日提交的美国专利申请12/422,661“Gesture Recognizer System Architecture(姿势识别器系统架构)”中找到,该申请通过整体引用合并于此。关于识别姿势的更多信息可在2009年2月23日提交的美国专利申请12/391,150“Standard Gestures(标准姿势)”;以及2009年5月29日提交的美国专利申请12/474,655“Gesture Tool(姿势工具)”中找到,这两个申请的全部内容都通过引用结合于此。
图6示出了可用于实现中枢计算系统12的计算系统的示例性实施例。如图6所示,多媒体控制台500具有含有一级高速缓存501、二级高速缓存504和闪存ROM(只读存储器)506的中央处理单元(CPU)502。一级高速缓存502和二级高速缓存504临时存储数据并因此减少存储器访问周期数,由此改进处理速度和吞吐量。CPU 501可以被配备为具有一个以上的核,并且由此具有附加的1级和2级高速缓存502和504。闪存ROM 506可存储在多媒体控制台500通电时在引导进程初始化阶段加载的可执行代码。
图形处理单元(GPU)508和视频编码器/视频编解码器(编码器/解码器)514形成用于高速、高分辨率图形处理的视频处理流水线。经由总线从图形处理单元508向视频编码器/视频编解码器514运送数据。视频处理流水线向A/V(音频/视频)端口540输出数据,用于传输至电视或其他显示器。存储器控制器510连接到GPU 508以方便处理器访问各种类型的存储器512,诸如但不局限于RAM(随机存取存储器)。
多媒体控制台500包括优选地在模块518上实现的I/O控制器520、系统管理控制器522、音频处理单元523、网络接口524、第一USB主控制器526、第二USB控制器528以及前面板I/O子部件530。USB控制器526和528用作外围控制器542(1)-542(2)、无线适配器548、和外置存储器设备546(例如闪存、外置CD/DVD ROM驱动器、可移动介质等)的主机。网络接口524和/或无线适配器548提供对网络(例如,因特网、家庭网络等)的访问并且可以是包括以太网卡、调制解调器、蓝牙模块、电缆调制解调器等的各种不同的有线或无线适配器组件中任何一种。
提供系统存储器543来存储在引导过程期间加载的应用数据。提供介质驱动器544,且其可包括DVD/CD驱动器、蓝光驱动器、硬盘驱动器、或其他可移动介质驱动器等。介质驱动器144可位于多媒体控制台500的内部或外部。应用数据可经由媒体驱动器544访问,以由多媒体控制台500执行、回放等。介质驱动器544经由诸如串行ATA总线或其他高速连接(例如IEEE 1394)等总线连接到I/O控制器520。
系统管理控制器522提供涉及确保多媒体控制台500的可用性的各种服务功能。音频处理单元523和音频编解码器532形成具有高保真度和立体声处理的对应的音频处理流水线。音频数据经由通信链路在音频处理单元523与音频编解码器532之间传输。音频处理流水线将数据输出到A/V端口540以供外部音频用户或具有音频能力的设备再现。
前面板I/O子部件530支持暴露在多媒体控制台100的外表面上的电源按钮550和弹出按钮552以及任何LED(发光二极管)或其他指示器的功能。系统供电模块536向多媒体控制台100的组件供电。风扇538冷却多媒体控制台500内的电路。
CPU 501、GPU 508、存储器控制器510、和多媒体控制台500内的各个其他组件经由一条或多条总线互连,包括串行和并行总线、存储器总线、外围总线、和使用各种总线架构中任一种的处理器或局部总线。作为示例,这些架构可以包括外围部件互连(PCI)总线、PCI-Express总线等。
当多媒体控制台500通电时,应用数据可从系统存储器543加载到存储器512和/或高速缓存502、504中并在CPU 501上执行。应用可呈现在导航到多媒体控制台500上可用的不同媒体类型时提供一致的用户体验的图形用户界面。在操作中,媒体驱动器544中包含的应用和/或其他媒体可从媒体驱动器544启动或播放,以向多媒体控制台500提供附加功能。
多媒体控制台500可通过将该系统简单地连接到电视机或其他显示器而作为独立系统来操作。在该独立模式中,多媒体控制台500允许一个或多个用户与该系统交互、看电影、或听音乐。然而,随着通过网络接口524或无线适配器548可用的宽带连接的集成,多媒体控制台500还可作为较大网络社区中的参与者来操作。附加地,多媒体控制台500可以通过无线适配器548与处理单元4通信。
当多媒体控制台500通电时,可以保留设定量的硬件资源以供多媒体控制台操作系统作系统使用。这些资源可包括存储器的保留量、CPU和GPU周期的保留量、网络带宽等等。因为这些资源是在系统引导时保留的,所以所保留的资源对应用的角度而言是不存在的。具体而言,存储器保留优选地足够大,以包含启动内核、并发系统应用和驱动程序。CPU保留优选地为恒定,使得若所保留的CPU用量不被系统应用使用,则空闲线程将消耗任何未使用的周期。
对于GPU保留,通过使用GPU中断来显示由系统应用程序生成的轻量消息(例如,弹出窗口),以调度代码来将弹出窗口呈现为覆盖图。覆盖图所需的存储器量取决于覆盖区域大小,并且覆盖图优选地与屏幕分辨率成比例缩放。在并发系统应用使用完整用户界面的情况下,优选使用独立于应用分辨率的分辨率。定标器可用于设置该分辨率,从而无需改变频率并引起TV重新同步。
在多媒体控制台500引导且系统资源被保留之后,执行并发系统应用来提供系统功能。系统功能被封装在上述所保留的系统资源中执行的一组系统应用中。操作系统内核标识是系统应用线程而非游戏应用线程的线程。系统应用优选地被调度为在预定时间并以预定时间间隔在CPU 501上运行,以便为应用提供一致的系统资源视图。进行调度是为了把由在控制台上运行的游戏应用所引起的高速缓存中断最小化。
当并发系统应用需要音频时,则由于时间敏感性而将音频处理异步地调度给游戏应用。多媒体控制台应用管理器(如下所述)在系统应用活动时控制游戏应用的音频水平(例如,静音、衰减)。
任选的输入设备(例如,控制器542(1)和542(2))由游戏应用和系统应用共享。输入设备不是所保留的资源,但却在系统应用和游戏应用之间切换以使其各自具有设备的焦点。应用管理器优选地控制输入流的切换,而无需知晓游戏应用的知识,并且驱动程序维护有关焦点切换的状态信息。捕捉设备20A和20B可以通过USB控制器526或其他接口来为控制台500定义附加的输入设备。在其他实施例中,中枢计算系统12可以使用其他硬件架构来实现。没有一种硬件架构是必需的。
图1示出了与一个中枢处理设备12(称为中枢)通信的一个头戴式显示设备2和处理单元4(统称为移动显示设备)。在另一实施例中,多个移动显示设备可以与单个中枢通信。每个移动显示设备都将如上述那样使用无线通信与中枢通信。在这样的实施例中所构思的是,有益于所有移动显示设备的信息中的许多都将被计算和存储在中枢处并且传送给每个移动显示设备。例如,中枢将生成环境的模型并且将该模型提供给与该中枢通信的所有移动显示设备。附加地,中枢可以跟踪移动显示设备以及房间中的移动物体的位置和取向,并且然后将该信息传输给每个移动显示设备。
在另一实施例中,系统可以包括多个中枢,其中每个中枢都包括一个或多个移动显示设备。这些中枢可以直接地或者通过因特网(或者其他网络)彼此通信。例如,图7示出了中枢560、562和564。中枢560直接与中枢562通信。中枢560通过因特网与中枢564通信。中枢560与移动显示设备570、572...574通信。中枢562与移动显示设备578、580...582通信。中枢564与移动显示设备584、586...588通信。每个移动显示设备都如上面所讨论的那样通过无线通信与其相应的中枢通信。如果这些中枢处于共同的环境中,则每个中枢都可以提供该环境的模型的一部分,或者一个中枢可以为其他中枢创建该模型。每个中枢都将跟踪移动物体的子集并且将该信息与其他中枢共享,所述其他中枢进而将与合适的移动显示设备共享该信息。用于移动显示设备的传感器信息将被提供给其相应的中枢,并且然后与其他中枢共享以用于最终与其他移动显示设备共享。因此,在中枢间共享的信息可以包括骨架跟踪、关于模型的信息、各种应用状态、以及其他跟踪。在中枢及其相应的移动显示设备之间传递的信息包括:移动物体的跟踪信息、世界模型的状态和物理更新、几何和纹理信息、视频和音频、以及用于执行在此所述的操作的其他信息。
图8是描述了用于将虚拟内容融合到现实内容中的过程的一个实施例的流程图,其中该过程由上面所讨论的组件来执行。在步骤602,配置该系统。例如,该系统的操作员或用户将指示:特定的现实世界物体应当被虚拟物体替换。在一替代方案中,应用(例如图5的应用452)可以将该系统配置为指示:特定的现实世界物体应当被虚拟物体替换。在其他实施例中,配置该系统将指示:特定的虚拟图像(其表示虚拟物体)应当被插入到环境中的指定位置处,而不必替换现实世界物体。考虑如下示例:用虚拟物体来填充空房间以将该空房间转变为虚拟现实。在另一示例中,在中枢计算系统12上运行的应用将指示:特定的虚拟图像(其表示虚拟物体)应当作为视频游戏或其他进程的一部分被插入到该环境中。
在步骤604,该系统将创建头戴式显示设备2所处的空间的体积模型。例如在一个实施例中,中枢计算设备12将使用来自一个或多个深度相机的深度图像来创建头戴式显示设备2所处的环境的三维模型。在一个实施例中,模型的创建包括:映射表面的照明和反射率以用于反射和阴影。在步骤606,将该模型分割成一个或多个物体。例如,如果中枢计算设备12创建房间的三维模型,则该房间很可能在里面具有多个物体。可以处于房间中的物体的示例包括:人、椅子、桌子、沙发椅等等。步骤606包括:确定彼此不同的物体。在步骤608,该系统将标识出这些物体。例如,中枢计算设备12可以标识出:特定物体是桌子并且另一物体是椅子。在步骤610,该系统将把虚拟物体投影到真实物体之上。也就是说,该系统在用户通过头戴式显示设备2进行查看的同时在用户的视野内的第一物体之上显示虚拟图像。因此,该虚拟图像将在显示设备上替换现实世界物体,这允许通过该显示器实际直接地查看该空间的至少一部分。被替换的物体可以是静止物体或者移动物体。附加地,该系统可以替换整个物体或者仅仅替换物体的一部分。例如,该系统可以在步骤602被配置为仅仅用一条不同的裤子替换人的裤子。因此,步骤610将是:无论房间中的人是运动还是静止的,都把一条新裤子的虚拟图像投影到在该人之上。在步骤612,头戴式显示设备2的用户将基于在头戴式显示设备2中所显示的虚拟物体来与运行在中枢计算设备12(或另一计算设备)上的应用交互。下面将更详细地描述步骤604-610中的每个。
图8A提供了图8的过程的实施方式的一个示例。在步骤602A(其对应于步骤602),通过指定要被虚拟物体替换的现实世界物体来配置该系统。在步骤604A(其对应于步骤604),中枢计算设备12将创建中枢计算设备12所处的房间的三维模型。在步骤606A(其对应于步骤606),将该三维模型分割成一组物体。在步骤608A,中枢计算设备12将标识出来自606A分割步骤的物体中的每个物体。步骤608A包括:标识出要被替换的物体以及房间中的其他物体。在步骤610A(其对应于步骤610),头戴式显示设备2用与虚拟物体相对应的虚拟图像来覆盖用户对现实世界物体的视图。例如,可以用巨石替换房间中的咖啡桌。在步骤612A(其对应于步骤612),用户将使用中枢计算设备12和虚拟物体来玩视频游戏。例如,用户可以玩涉及该巨石的视频游戏。
图9是描述了用户创建空间的模型的过程的一个实施例的流程图。例如,图9的过程是图8的步骤604的一个示例性实施方式。在步骤640,中枢计算系统12接收头戴式显示设备所处的空间的多个视角的一个或多个深度图像。例如,中枢计算设备12可以从多个深度相机获得深度图像,或者通过使相机指向不同方向或者使用具有如下透镜的相机来从同一相机获得多个深度图像:该透镜允许将要构建模型的空间的全视图。在步骤642,基于共同的坐标系来组合来自各个深度图像的深度数据。例如,如果该系统从多个相机接收深度图像,则该系统将两个图像相关以具有共同的坐标系(例如使图像排齐)。在步骤644,使用深度数据来创建空间的体积描述。
图10是描述了将空间的模型分割成物体的过程的一个实施例的流程图。例如,图10的过程是图8的步骤606的一个示例性实施方式。在图10的步骤680,该系统将如上面所讨论的那样从一个或多个深度相机接收一个或多个深度图像。可替代地,该系统可以访问其已经接收到的一个或多个深度图像。在步骤682,该系统将如上述那样从相机接收一个或多个视觉图像。可替代地,该系统可以访问已经接收到的一个或多个视觉图像。在步骤684,中枢计算系统将基于深度图像和/或视觉图像检测一个或多个人。例如,该系统将识别一个或多个骨架。在步骤686,中枢计算设备将基于深度图像和/或视觉图像检测该模型内的边缘。在步骤688,中枢计算设备将使用所检测到的边缘来标识出彼此不同的物体。例如,假定:这些边缘是物体之间的边界。在步骤690,将更新使用图9的过程所创建的模型以示出:该模型的哪些部分与不同的物体相关联。
图11是描述用于标识出物体的过程的一个实施例的流程图。例如,图11的过程是图8的步骤608的一个示例性实施方式。在步骤710,中枢计算设备12将所标识出的人与用户身份进行匹配。例如,该系统可以具有用户简档,所述用户简档具有可以与所检测到的物体的图像相匹配的视觉图像。可替代地,用户简档可以描述可基于深度图像或视觉图像来匹配的人的特征。在另一实施例中,用户可以登陆到系统中并且中枢计算设备12可以使用登陆过程来标识出特定用户并且在此处所述的交互的整个过程中跟踪该用户。在步骤712,中枢计算设备12将访问形状数据库。在步骤714,中枢计算设备将模型中的多个物体与数据库中的形状进行匹配。在步骤716,将突出不匹配的那些形状并且将其显示给用户(例如使用监视器16)。在步骤718,中枢计算设备12将接收标识出所突出形状中的每个(或其子集)的用户输入。例如,用户可以使用键盘、鼠标、语音输入、或者其他类型的输入来指示:每个未标识出的形状是什么。在步骤720,基于步骤718中的用户输入来更新形状数据库。在步骤722,通过添加每个物体的元数据来进一步更新在步骤604被创建并且在步骤606被更新的环境模型。该元数据标识出该物体。例如,该元数据可以指示:特定物体处于小桌、某人、绿色真皮沙发椅等等的周围。
图11A是描述了用于响应于移动物体(例如移动的人或其他类型的物体)而更新通过图9的过程所创建的模型的过程的一个实施例的流程图。在步骤728,该系统确定物体在移动。例如,系统将持续地接收深度图像。如果深度图像随时间改变,则物体在移动。如果未检测到移动物体,则该系统将继续接收深度图像并且继续寻找移动物体。
如果存在移动物体,则在步骤730,该系统将标识出正在移动的物体。可以使用帧差异或各种任何跟踪技术来识别移动物体,并且将所识别的物体与在图8的步骤608所标识出的物体之一相关。一些物体将在移动使改变形状。例如,人类可能在其行走或奔跑时改变形状。在步骤732,标识出并存储移动物体的新形状。在步骤734,基于移动物体的新的位置和形状来更新之前创建的环境模型。图11A的过程可以由中枢计算设备12的处理单元4来执行。
图12是描述用于将虚拟物体投影(或以其他方式显示)到现实物体之上的过程的一个实施例的流程图。例如,图12的过程是图8的步骤610的一个示例性实施方式。在一个实施例中,图12的过程由处理单元4来执行。在图12的步骤750中,该系统访问环境的模型。在步骤752,该系统确定用户相对于该环境模型的视角(point fo view)。也就是说,该系统确定:用户正在查看该环境或空间的哪个部分。在一个实施例中,步骤752是使用中枢计算设备12、处理单元4和头戴式显示设备2的协作工作。在一个示例性实施方式中,中枢计算机设备12将跟踪用户和头戴式显示设备以便提供对头戴式显示设备2的位置和取向的初步确定。头戴式显示设备2上的传感器将用于细化所确定的取向。例如,上述惯性传感器34可以用于细化头戴式显示设备2的取向。此外,可以使用上述眼睛跟踪过程来标识出最初确定的视野的与特定用户所查看之处相对应的子集。下面将参照图13、14和15来描述更多细节。
在一个实施例中,该系统将尝试将多个虚拟图像添加到场景中。在其他实施例中,该系统可以仅仅尝试将一个虚拟图像插入到该场景中。针对虚拟图像,该系统具有将该虚拟图像插入到何处的目标。在一个实施例中,该目标可以是现实世界物体,使得该虚拟图像将替换现实物体的视图。在其他环境中,虚拟图像的目标可以是相对于现实世界物体而言的。
在步骤754,该系统在z缓冲区中从头戴式显示设备2的用户的视角来渲染之前所创建的三维环境模型,而不将任何色彩信息渲染到相应色彩缓冲区中。这有效地让所渲染的环境图像是全黑的,但是不存储环境中的物体的z(深度)数据。步骤754导致为每个像素(或者为像素的子集)存储深度数据。在步骤756,将虚拟内容(例如与虚拟物体相对应的虚拟图像)渲染到同一z缓冲区中,并且将虚拟内容的色彩信息写入到相应的色彩缓冲区中。这有效地允许在考虑到现实世界物体或者遮挡虚拟物体的全部或一部分的其他虚拟物体的情况下将虚拟图像绘制在微显示器120上。
在步骤758,把被绘制到移动物体之上的虚拟物体模糊化为恰好足以提供运动的外观。在步骤760,该系统标识出微显示器120的显示虚拟图像的像素。在步骤762,为微显示器120的像素确定阿尔法值。在传统的色度键控系统中,阿尔法值以逐像素为基础指示:将阿尔法值的多少用于标识出图像为多么不透明在一些应用中,阿尔法值可以是二进制的(例如开和关)。在其他应用中,阿尔法值可以是具有范围的数。在一个示例中,在步骤760中所标识出的每个像素都将具有第一阿尔法值,并且所有其他像素都具有第二阿尔法值。
在步骤764,基于阿尔法值来确定不透明度滤光器的像素。在一个示例中,不透明度滤光器与微显示器120具有相同的分辨率,并且因此不透明度滤光器可以使用阿尔法值来控制。在另一实施例中,不透明度滤光器与微显示器120具有不同的分辨率,并且因此用于暗化或不暗化不透明度滤光器的数据将通过使用用于在分辨率之间转换的各种任何数学算法而从阿尔法值中导出。还可以使用用于基于阿尔法值(或其他数据)为不透明度滤光器导出控制数据的其他手段。
在步骤766,将z缓冲区和色彩缓冲区中的图像、以及阿尔法值和不透明度滤光器的控制数据调整为考虑到光源(虚拟或现实)和阴影(虚拟或现实)。下面参照图12A提供步骤766的更多细节。在步骤768,将基于z缓冲区和色彩缓冲区的复合图像发送给微显示器120。也就是说,将要显示在合适像素处显示的虚拟图像发送给微显示器120,其中考虑到视角和遮挡。在步骤770,将不透明度滤光器的控制数据从处理单元4传送给头戴式显示设备2以控制不透明度滤光器114。注意,图12的过程可以每秒多次执行(例如刷新率)。
图12的过程允许在显示器上自动地将虚拟图像显示在静止或移动物体上(或相对于静止或移动物体而言),该显示器允许通过该显示器对空间的至少一部分的实际直接查看。
图12A是描述了用于考虑到光源和阴影的过程的一个实施例的流程图,该过程是图12的步骤766的示例性实施方式。在步骤780,处理单元4标识出需要考虑到的一个或多个光源。例如,当绘制虚拟图像时,可能需要考虑到现实光源。如果该系统将虚拟光源添加到用户的视图,则可以在头戴式显示设备2中考虑到该虚拟光源的效果。在步骤782,标识出被光源照明的模型的部分(包括虚拟图像)。在步骤784,将描绘该照明的图像添加到上述色彩缓冲区。
在步骤786,处理单元4标识出需要被头戴式显示设备2添加的一个或多个阴影区域。例如,如果虚拟图像被添加到阴影的区域中,则在绘制虚拟图像时需要通过在步骤788调整色彩缓冲区来考虑到该阴影。如果虚拟阴影将被添加到不存在虚拟图像之处,则不透明度滤光器114的与该虚拟阴影的位置相对应的像素在步骤790被暗化。
图15是描述了用于确定用户视角的过程的一个实施例的流程图,该过程是图12的步骤752的示例性实施方式。图15的过程依靠来自中枢计算设备12的信息和上述眼睛跟踪技术。图13是描述了由中枢计算系统执行以提供用在图15的过程中的跟踪信息的过程的一个实施例的流程图。图14是描述了用于跟踪眼睛的过程的一个实施例的流程图,其中该过程的结果供图15的过程来使用。
在图13的步骤810,中枢计算设备将跟踪用户的位置。例如,中枢计算设备12将使用一个或多个深度图像和一个或多个视觉图像来跟踪用户(例如使用骨架跟踪)。可以在步骤812使用一个或多个深度图像和一个或多个视觉图像来确定头戴式显示设备2的位置和头戴式显示设备2的取向。在步骤814,将用户和头戴式显示设备2的位置和取向从中枢计算设备12传送给处理单元4。在步骤816,在处理单元4处接收该位置和取向信息。
图14是描述用于使用上述技术来跟踪眼睛的一个实施例的流程图。在步骤860,照明眼睛。例如,可以使用红外光从眼睛跟踪照明134A来照明眼睛。在步骤862,使用一个或多个眼睛跟踪相机134B来检测来自眼睛的反射。在步骤864,将该反射数据从头戴式显示设备2发送给处理单元4。在步骤866,处理单元4将如上述那样基于反射数据来确定眼睛的位置。
图15是描述了用于确定视角的过程(例如图12的步骤750)的一个实施例的流程图。在步骤902,处理单元4将访问从中枢接收到的最新的位置和取向信息。图13的过程可以如从步骤814到步骤810的箭头所描绘的那样连续地执行,因此,处理单元4将周期性地从中枢计算设备12接收经更新的位置和取向信息。然而,处理单元4将需要与其从中枢计算设备12接收经更新的信息相比更频繁地绘制虚拟图像。因此,处理单元4将需要依靠本地感测的信息(其例如来自头戴式设备2)以在来自中枢计算设备12的采样之间提供取向的更新。在步骤904,处理单元4将从三轴陀螺仪132B访问数据。在步骤906,处理单元4将从三轴加速度计132C访问数据。在步骤908,处理单元4将从三轴磁力计132A访问数据。在步骤910,处理单元4将用来自该陀螺仪、加速度计和磁力计的数据来细化(或以其他方式更新)来自中枢计算设备12的位置和取向数据。在步骤912,处理单元4将基于头戴式显示设备的位置和取向来确定潜在的视角。在步骤914,处理单元4将访问最新的眼睛位置信息。在步骤916,处理单元4将基于眼睛位置作为潜在视角的子集来确定模型的用户所观看的位置。例如,用户可以朝向墙壁,并且因此头戴式显示器的视野可以包括沿着墙壁的任何地方。然而,如果用户的眼睛指向右边,则步骤916将作出的结论是,用户的视野仅仅是墙壁的右边部分。在步骤915结束时,处理单元4已经确定了用户通过头戴式显示器2的视角。然后,如上面参照图12所描述的那样,处理单元4可以在该视野内标识出要插入虚拟图像以及使用不透明度滤光器来阻挡光的位置。
尽管用结构特征和/或方法动作专用的语言描述了本主题,但可以理解,所附权利要求书中定义的主题不必限于上述具体特征或动作。更确切而言,上述具体特征和动作是作为实现权利要求的示例形式公开的。本发明的范围由所附的权利要求进行定义。
Claims (7)
1.一种用于将虚拟内容融合到现实内容中的方法,包括:
创建空间的体积模型;
将该模型分割成物体,其中将该模型分割成物体包括:
访问一个或多个深度图像;
访问一个或多个视觉图像;
使用所述一个或多个深度图像和所述一个或多个视觉图像来检测一个或多个人;
基于所述一个或多个深度图像和所述一个或多个视觉图像来检测边缘;
基于所述边缘来检测物体;以及
更新该模型以存储关于所述物体和人的检测的信息;
标识出所述物体中的包括第一物体的一个或多个物体,其中标识出所述物体中的一个或多个包括:
将至少一个所检测到的物体与用户身份进行匹配;
访问形状的数据结构;
将一个或多个所检测到的物体与该数据结构中的形状进行匹配;
更新该模型以反映所述至少一个所检测到的物体与用户身份的匹配、以及所述一个或多个所检测到的物体与该数据结构中的形状的匹配;
向用户视觉地显示不匹配的物体并且请求该用户标识出所述不匹配的物体;
接收所述不匹配的物体的新标识;
更新该数据结构以反映该新标识;以及
更新该模型以存储关于所述不匹配的物体的新标识的信息;以及
在显示器上自动地将虚拟图像显示在第一物体之上,该显示器允许通过该显示器实际直接地查看该空间的至少一部分。
2.如权利要求1所述的方法,其特征在于,创建体积模型包括:
接收多个视角的深度图像;以及
使用来自所述深度图像的数据来创建和存储该空间的三维描述。
3.如权利要求1所述的方法,其特征在于,自动地将虚拟图像显示在第一物体之上还包括:
标识出光源;
基于该光源调整该虚拟图像;
标识出阴影区域;以及
使现实物体的对应于该阴影区域的视图暗化。
4.如权利要求1所述的方法,其特征在于:
在显示器上自动地将虚拟图像显示在第一物体之上包括:确定该显示器的所述用户的视角;以及
确定该显示器的用户的视角包括:使用所述一个或多个深度图像自动地确定该显示器的位置和取向;使用惯性传感器来自动地细化所确定的显示器的取向;以及自动地确定该显示器的用户的眼睛的位置以标识出该空间的以所确定的位置和取向被查看的子集。
5.如权利要求1所述的方法,其特征在于,在显示器上将虚拟图像显示在第一物体之上还包括:
自动地确定第一物体正在移动;
自动地跟踪第一物体的移动;
自动地确定第一物体的形状的改变;以及
响应于第一物体的移动使该虚拟图像模糊化。
6.如权利要求1所述的方法,其特征在于,在显示器上将虚拟图像显示在第一物体之上还包括:
标识出该显示器的示出第一物体的部分;以及
选择性地阻挡光,使其不能穿过该显示器的示出第一物体的该部分,该虚拟图像被投影到该显示器的示出第一物体的该部分上。
7.如权利要求1所述的方法,其特征在于:
自动显示虚拟图像包括:将该虚拟图像投影在该显示器上,而不将该空间的该部分投影到该显示器上。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/905,952 US8884984B2 (en) | 2010-10-15 | 2010-10-15 | Fusing virtual content into real content |
US12/905,952 | 2010-10-15 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102419631A CN102419631A (zh) | 2012-04-18 |
CN102419631B true CN102419631B (zh) | 2015-02-25 |
Family
ID=45933748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110328586.0A Active CN102419631B (zh) | 2010-10-15 | 2011-10-17 | 虚拟内容到现实内容中的融合 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8884984B2 (zh) |
CN (1) | CN102419631B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106560766A (zh) * | 2015-10-04 | 2017-04-12 | 义明科技股份有限公司 | 非接触式手势判断方法及其装置 |
Families Citing this family (305)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9158116B1 (en) | 2014-04-25 | 2015-10-13 | Osterhout Group, Inc. | Temple and ear horn assembly for headworn computer |
US20150205111A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | Optical configurations for head worn computing |
US9298007B2 (en) | 2014-01-21 | 2016-03-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US20150277120A1 (en) | 2014-01-21 | 2015-10-01 | Osterhout Group, Inc. | Optical configurations for head worn computing |
US9229233B2 (en) | 2014-02-11 | 2016-01-05 | Osterhout Group, Inc. | Micro Doppler presentations in head worn computing |
US9400390B2 (en) | 2014-01-24 | 2016-07-26 | Osterhout Group, Inc. | Peripheral lighting for head worn computing |
US9715112B2 (en) | 2014-01-21 | 2017-07-25 | Osterhout Group, Inc. | Suppression of stray light in head worn computing |
US9952664B2 (en) | 2014-01-21 | 2018-04-24 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9965681B2 (en) | 2008-12-16 | 2018-05-08 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9366867B2 (en) | 2014-07-08 | 2016-06-14 | Osterhout Group, Inc. | Optical systems for see-through displays |
US9122053B2 (en) | 2010-10-15 | 2015-09-01 | Microsoft Technology Licensing, Llc | Realistic occlusion for a head mounted augmented reality display |
JP2012120067A (ja) * | 2010-12-03 | 2012-06-21 | Brother Ind Ltd | シースルー型画像表示装置およびシースルー型画像表示方法 |
US9264515B2 (en) * | 2010-12-22 | 2016-02-16 | Intel Corporation | Techniques for mobile augmented reality applications |
US8913085B2 (en) * | 2010-12-22 | 2014-12-16 | Intel Corporation | Object mapping techniques for mobile augmented reality applications |
WO2012115657A1 (en) * | 2011-02-25 | 2012-08-30 | Empire Technology Development Llc | Augmented reality presentations |
JP5724544B2 (ja) * | 2011-03-31 | 2015-05-27 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
US8810598B2 (en) | 2011-04-08 | 2014-08-19 | Nant Holdings Ip, Llc | Interference based augmented reality hosting platforms |
US8570372B2 (en) * | 2011-04-29 | 2013-10-29 | Austin Russell | Three-dimensional imager and projection device |
US8760499B2 (en) * | 2011-04-29 | 2014-06-24 | Austin Russell | Three-dimensional imager and projection device |
US9330499B2 (en) | 2011-05-20 | 2016-05-03 | Microsoft Technology Licensing, Llc | Event augmentation with real-time information |
US9155964B2 (en) | 2011-09-14 | 2015-10-13 | Steelseries Aps | Apparatus for adapting virtual gaming with real world information |
US9520072B2 (en) * | 2011-09-21 | 2016-12-13 | University Of South Florida | Systems and methods for projecting images onto an object |
JP5994233B2 (ja) * | 2011-11-08 | 2016-09-21 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
EP2783340A4 (en) | 2011-11-21 | 2015-03-25 | Nant Holdings Ip Llc | SUBSCRIPTION ACCOUNTING SERVICE AND SYSTEMS AND METHOD THEREFOR |
US9072929B1 (en) * | 2011-12-01 | 2015-07-07 | Nebraska Global Investment Company, LLC | Image capture system |
US8872853B2 (en) | 2011-12-01 | 2014-10-28 | Microsoft Corporation | Virtual light in augmented reality |
US9311751B2 (en) | 2011-12-12 | 2016-04-12 | Microsoft Technology Licensing, Llc | Display of shadows via see-through display |
US9230367B2 (en) | 2011-12-13 | 2016-01-05 | Here Global B.V. | Augmented reality personalization |
JP5620414B2 (ja) * | 2012-01-18 | 2014-11-05 | 株式会社スクウェア・エニックス | ゲーム装置 |
US9147111B2 (en) * | 2012-02-10 | 2015-09-29 | Microsoft Technology Licensing, Llc | Display with blocking image generation |
US11284137B2 (en) | 2012-04-24 | 2022-03-22 | Skreens Entertainment Technologies, Inc. | Video processing systems and methods for display, selection and navigation of a combination of heterogeneous sources |
US10499118B2 (en) * | 2012-04-24 | 2019-12-03 | Skreens Entertainment Technologies, Inc. | Virtual and augmented reality system and headset display |
US9519640B2 (en) | 2012-05-04 | 2016-12-13 | Microsoft Technology Licensing, Llc | Intelligent translations in personal see through display |
CN104603865A (zh) * | 2012-05-16 | 2015-05-06 | 丹尼尔·格瑞贝格 | 一种由移动中的用户佩戴的用于通过锚定虚拟对象充分增强现实的系统 |
JP2013257492A (ja) * | 2012-06-14 | 2013-12-26 | Sony Corp | 制御装置、表示装置、制御方法、照明制御方法及びプログラム |
US9263084B1 (en) * | 2012-06-15 | 2016-02-16 | A9.Com, Inc. | Selective sharing of body data |
KR102009928B1 (ko) * | 2012-08-20 | 2019-08-12 | 삼성전자 주식회사 | 협업 구현 방법 및 장치 |
US9310611B2 (en) * | 2012-09-18 | 2016-04-12 | Qualcomm Incorporated | Methods and systems for making the use of head-mounted displays less obvious to non-users |
CN102866506A (zh) * | 2012-09-21 | 2013-01-09 | 苏州云都网络技术有限公司 | 增强现实眼镜及其实现方法 |
KR20140045801A (ko) * | 2012-10-09 | 2014-04-17 | 삼성전자주식회사 | 투명 디스플레이 장치 및 그 제어 방법 |
CN103777351A (zh) * | 2012-10-26 | 2014-05-07 | 鸿富锦精密工业(深圳)有限公司 | 多媒体眼镜 |
US9019174B2 (en) | 2012-10-31 | 2015-04-28 | Microsoft Technology Licensing, Llc | Wearable emotion detection and feedback system |
US9158114B2 (en) * | 2012-11-05 | 2015-10-13 | Exelis Inc. | Image display utilizing a variable mask to selectively block image data |
CN103838536B (zh) * | 2012-11-27 | 2017-12-29 | 联想(北京)有限公司 | 显示模式的切换方法、控制电子设备的方法及电子设备 |
US9189021B2 (en) * | 2012-11-29 | 2015-11-17 | Microsoft Technology Licensing, Llc | Wearable food nutrition feedback system |
US20140152558A1 (en) * | 2012-11-30 | 2014-06-05 | Tom Salter | Direct hologram manipulation using imu |
CN102998799A (zh) * | 2012-12-04 | 2013-03-27 | 深圳市长江力伟股份有限公司 | 一种虚境与实境融合近眼显示系统 |
US20140176591A1 (en) * | 2012-12-26 | 2014-06-26 | Georg Klein | Low-latency fusing of color image data |
US10514541B2 (en) | 2012-12-27 | 2019-12-24 | Microsoft Technology Licensing, Llc | Display update time reduction for a near-eye display |
US10127724B2 (en) * | 2013-01-04 | 2018-11-13 | Vuezr, Inc. | System and method for providing augmented reality on mobile devices |
US9588730B2 (en) * | 2013-01-11 | 2017-03-07 | Disney Enterprises, Inc. | Mobile tele-immersive gameplay |
US9449340B2 (en) * | 2013-01-30 | 2016-09-20 | Wal-Mart Stores, Inc. | Method and system for managing an electronic shopping list with gestures |
EP2956814A1 (en) * | 2013-02-14 | 2015-12-23 | Seiko Epson Corporation | Head mounted display and control method for head mounted display |
JP6499154B2 (ja) | 2013-03-11 | 2019-04-10 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 拡張現実および仮想現実のためのシステムおよび方法 |
JP6123365B2 (ja) * | 2013-03-11 | 2017-05-10 | セイコーエプソン株式会社 | 画像表示システム及び頭部装着型表示装置 |
US11228805B2 (en) * | 2013-03-15 | 2022-01-18 | Dish Technologies Llc | Customized commercial metrics and presentation via integrated virtual environment devices |
US9922437B1 (en) | 2013-03-15 | 2018-03-20 | William S. Baron | Process for creating an augmented image |
US9846965B2 (en) * | 2013-03-15 | 2017-12-19 | Disney Enterprises, Inc. | Augmented reality device with predefined object data |
CN107656618B (zh) | 2013-03-15 | 2021-03-23 | 奇跃公司 | 显示系统和方法 |
US11024065B1 (en) | 2013-03-15 | 2021-06-01 | William S. Baron | Process for creating an augmented image |
US9418629B2 (en) * | 2013-03-15 | 2016-08-16 | Disney Enterprises, Inc. | Optical illumination mapping |
CN104062758B (zh) * | 2013-03-19 | 2017-02-08 | 联想(北京)有限公司 | 图像显示的方法和显示设备 |
US9443354B2 (en) | 2013-04-29 | 2016-09-13 | Microsoft Technology Licensing, Llc | Mixed reality interactions |
US9239460B2 (en) | 2013-05-10 | 2016-01-19 | Microsoft Technology Licensing, Llc | Calibration of eye location |
US9230368B2 (en) * | 2013-05-23 | 2016-01-05 | Microsoft Technology Licensing, Llc | Hologram anchoring and dynamic positioning |
CN104239877B (zh) * | 2013-06-19 | 2019-02-05 | 联想(北京)有限公司 | 图像处理的方法和图像采集设备 |
CN103353663B (zh) | 2013-06-28 | 2016-08-10 | 北京智谷睿拓技术服务有限公司 | 成像调整装置及方法 |
CN103353677B (zh) | 2013-06-28 | 2015-03-11 | 北京智谷睿拓技术服务有限公司 | 成像装置及方法 |
CN103353667B (zh) | 2013-06-28 | 2015-10-21 | 北京智谷睿拓技术服务有限公司 | 成像调整设备及方法 |
US10228242B2 (en) | 2013-07-12 | 2019-03-12 | Magic Leap, Inc. | Method and system for determining user input based on gesture |
CN103424891B (zh) | 2013-07-31 | 2014-12-17 | 北京智谷睿拓技术服务有限公司 | 成像装置及方法 |
CN103431840B (zh) | 2013-07-31 | 2016-01-20 | 北京智谷睿拓技术服务有限公司 | 眼睛光学参数检测系统及方法 |
US9761053B2 (en) * | 2013-08-21 | 2017-09-12 | Nantmobile, Llc | Chroma key content management systems and methods |
CN103439801B (zh) | 2013-08-22 | 2016-10-26 | 北京智谷睿拓技术服务有限公司 | 视力保护成像装置及方法 |
CN103431980A (zh) | 2013-08-22 | 2013-12-11 | 北京智谷睿拓技术服务有限公司 | 视力保护成像系统及方法 |
CN103605208B (zh) | 2013-08-30 | 2016-09-28 | 北京智谷睿拓技术服务有限公司 | 内容投射系统及方法 |
CN103500331B (zh) | 2013-08-30 | 2017-11-10 | 北京智谷睿拓技术服务有限公司 | 提醒方法及装置 |
JP6337433B2 (ja) * | 2013-09-13 | 2018-06-06 | セイコーエプソン株式会社 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
US9292764B2 (en) | 2013-09-17 | 2016-03-22 | Qualcomm Incorporated | Method and apparatus for selectively providing information on objects in a captured image |
US20150123966A1 (en) * | 2013-10-03 | 2015-05-07 | Compedia - Software And Hardware Development Limited | Interactive augmented virtual reality and perceptual computing platform |
CN103558909B (zh) | 2013-10-10 | 2017-03-29 | 北京智谷睿拓技术服务有限公司 | 交互投射显示方法及交互投射显示系统 |
US20150106386A1 (en) * | 2013-10-11 | 2015-04-16 | Microsoft Corporation | Eye tracking |
US9720559B2 (en) | 2013-10-14 | 2017-08-01 | Microsoft Technology Licensing, Llc | Command authentication |
US9582516B2 (en) | 2013-10-17 | 2017-02-28 | Nant Holdings Ip, Llc | Wide area augmented reality location-based services |
US9652892B2 (en) * | 2013-10-29 | 2017-05-16 | Microsoft Technology Licensing, Llc | Mixed reality spotlight |
US9672649B2 (en) * | 2013-11-04 | 2017-06-06 | At&T Intellectual Property I, Lp | System and method for enabling mirror video chat using a wearable display device |
CN107193126B (zh) * | 2013-11-27 | 2020-06-05 | 奇跃公司 | 虚拟和增强现实系统与方法 |
CN105794201B (zh) * | 2013-12-05 | 2019-05-31 | 索尼公司 | 显示设备 |
EP3077867B1 (en) * | 2013-12-06 | 2018-02-14 | Telefonaktiebolaget LM Ericsson (publ) | Optical head mounted display, television portal module and methods for controlling graphical user interface |
EP2887124A1 (en) * | 2013-12-20 | 2015-06-24 | Thomson Licensing | Optical see-through glass type display device and corresponding optical unit |
US9484005B2 (en) | 2013-12-20 | 2016-11-01 | Qualcomm Incorporated | Trimming content for projection onto a target |
US20160320621A1 (en) * | 2013-12-23 | 2016-11-03 | Essilor International (Compagnie Generale D'optique) | Head-mounted display with filter function |
US9459451B2 (en) | 2013-12-26 | 2016-10-04 | Microsoft Technology Licensing, Llc | Eye tracking apparatus, method and system |
EP3087427B1 (en) * | 2013-12-27 | 2019-01-30 | Intel Corporation | Device, method, and system of providing extended display with head mounted display |
US9575321B2 (en) | 2014-06-09 | 2017-02-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US9810906B2 (en) | 2014-06-17 | 2017-11-07 | Osterhout Group, Inc. | External user interface for head worn computing |
US20150228119A1 (en) | 2014-02-11 | 2015-08-13 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US9366868B2 (en) | 2014-09-26 | 2016-06-14 | Osterhout Group, Inc. | See-through computer display systems |
WO2015109145A1 (en) * | 2014-01-17 | 2015-07-23 | Osterhout Group, Inc. | See-through computer display systems |
US9594246B2 (en) | 2014-01-21 | 2017-03-14 | Osterhout Group, Inc. | See-through computer display systems |
US20150277118A1 (en) | 2014-03-28 | 2015-10-01 | Osterhout Group, Inc. | Sensor dependent content position in head worn computing |
US10191279B2 (en) | 2014-03-17 | 2019-01-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US11103122B2 (en) | 2014-07-15 | 2021-08-31 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US9829707B2 (en) | 2014-08-12 | 2017-11-28 | Osterhout Group, Inc. | Measuring content brightness in head worn computing |
US9448409B2 (en) | 2014-11-26 | 2016-09-20 | Osterhout Group, Inc. | See-through computer display systems |
US9529195B2 (en) | 2014-01-21 | 2016-12-27 | Osterhout Group, Inc. | See-through computer display systems |
US10684687B2 (en) | 2014-12-03 | 2020-06-16 | Mentor Acquisition One, Llc | See-through computer display systems |
US10254856B2 (en) | 2014-01-17 | 2019-04-09 | Osterhout Group, Inc. | External user interface for head worn computing |
US10649220B2 (en) | 2014-06-09 | 2020-05-12 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US20160019715A1 (en) | 2014-07-15 | 2016-01-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US9746686B2 (en) | 2014-05-19 | 2017-08-29 | Osterhout Group, Inc. | Content position calibration in head worn computing |
US9671613B2 (en) | 2014-09-26 | 2017-06-06 | Osterhout Group, Inc. | See-through computer display systems |
US9939934B2 (en) | 2014-01-17 | 2018-04-10 | Osterhout Group, Inc. | External user interface for head worn computing |
US9841599B2 (en) | 2014-06-05 | 2017-12-12 | Osterhout Group, Inc. | Optical configurations for head-worn see-through displays |
US9299194B2 (en) * | 2014-02-14 | 2016-03-29 | Osterhout Group, Inc. | Secure sharing in head worn computing |
US11227294B2 (en) | 2014-04-03 | 2022-01-18 | Mentor Acquisition One, Llc | Sight information collection in head worn computing |
US9836122B2 (en) | 2014-01-21 | 2017-12-05 | Osterhout Group, Inc. | Eye glint imaging in see-through computer display systems |
US11487110B2 (en) | 2014-01-21 | 2022-11-01 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US9523856B2 (en) | 2014-01-21 | 2016-12-20 | Osterhout Group, Inc. | See-through computer display systems |
US11892644B2 (en) | 2014-01-21 | 2024-02-06 | Mentor Acquisition One, Llc | See-through computer display systems |
US9766463B2 (en) | 2014-01-21 | 2017-09-19 | Osterhout Group, Inc. | See-through computer display systems |
US9651784B2 (en) | 2014-01-21 | 2017-05-16 | Osterhout Group, Inc. | See-through computer display systems |
US9753288B2 (en) | 2014-01-21 | 2017-09-05 | Osterhout Group, Inc. | See-through computer display systems |
US20150205135A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | See-through computer display systems |
US11737666B2 (en) | 2014-01-21 | 2023-08-29 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US9494800B2 (en) | 2014-01-21 | 2016-11-15 | Osterhout Group, Inc. | See-through computer display systems |
US11669163B2 (en) | 2014-01-21 | 2023-06-06 | Mentor Acquisition One, Llc | Eye glint imaging in see-through computer display systems |
US9740280B2 (en) | 2014-01-21 | 2017-08-22 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US12093453B2 (en) | 2014-01-21 | 2024-09-17 | Mentor Acquisition One, Llc | Eye glint imaging in see-through computer display systems |
US9615742B2 (en) | 2014-01-21 | 2017-04-11 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9846308B2 (en) | 2014-01-24 | 2017-12-19 | Osterhout Group, Inc. | Haptic systems for head-worn computers |
US9401540B2 (en) | 2014-02-11 | 2016-07-26 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US20150241964A1 (en) | 2014-02-11 | 2015-08-27 | Osterhout Group, Inc. | Eye imaging in head worn computing |
TWI489140B (zh) * | 2014-02-24 | 2015-06-21 | Quanta Comp Inc | 頭戴式顯示裝置 |
US20160187651A1 (en) | 2014-03-28 | 2016-06-30 | Osterhout Group, Inc. | Safety for a vehicle operator with an hmd |
US9977572B2 (en) * | 2014-04-01 | 2018-05-22 | Hallmark Cards, Incorporated | Augmented reality appearance enhancement |
US9651787B2 (en) | 2014-04-25 | 2017-05-16 | Osterhout Group, Inc. | Speaker assembly for headworn computer |
US9672210B2 (en) | 2014-04-25 | 2017-06-06 | Osterhout Group, Inc. | Language translation with head-worn computing |
US9423842B2 (en) | 2014-09-18 | 2016-08-23 | Osterhout Group, Inc. | Thermal management for head-worn computer |
US10853589B2 (en) | 2014-04-25 | 2020-12-01 | Mentor Acquisition One, Llc | Language translation with head-worn computing |
US9430038B2 (en) | 2014-05-01 | 2016-08-30 | Microsoft Technology Licensing, Llc | World-locked display quality feedback |
US20150331260A1 (en) * | 2014-05-15 | 2015-11-19 | Kessler Foundation Inc. | Wearable systems and methods for treatment of a neurocognitive condition |
US9551873B2 (en) * | 2014-05-30 | 2017-01-24 | Sony Interactive Entertainment America Llc | Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content |
US10663740B2 (en) | 2014-06-09 | 2020-05-26 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US9766460B2 (en) | 2014-07-25 | 2017-09-19 | Microsoft Technology Licensing, Llc | Ground plane adjustment in a virtual reality environment |
US10311638B2 (en) | 2014-07-25 | 2019-06-04 | Microsoft Technology Licensing, Llc | Anti-trip when immersed in a virtual reality environment |
US9858720B2 (en) * | 2014-07-25 | 2018-01-02 | Microsoft Technology Licensing, Llc | Three-dimensional mixed-reality viewport |
US10451875B2 (en) | 2014-07-25 | 2019-10-22 | Microsoft Technology Licensing, Llc | Smart transparency for virtual objects |
US9865089B2 (en) * | 2014-07-25 | 2018-01-09 | Microsoft Technology Licensing, Llc | Virtual reality environment with real world objects |
US10416760B2 (en) | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
US9904055B2 (en) | 2014-07-25 | 2018-02-27 | Microsoft Technology Licensing, Llc | Smart placement of virtual objects to stay in the field of view of a head mounted display |
US9811095B2 (en) * | 2014-08-06 | 2017-11-07 | Lenovo (Singapore) Pte. Ltd. | Glasses with fluid-fillable membrane for adjusting focal length of one or more lenses of the glasses |
DE202014103729U1 (de) * | 2014-08-08 | 2014-09-09 | Leap Motion, Inc. | Augmented-Reality mit Bewegungserfassung |
US9946361B2 (en) | 2014-08-14 | 2018-04-17 | Qualcomm Incorporated | Management for wearable display |
US10055018B2 (en) * | 2014-08-22 | 2018-08-21 | Sony Interactive Entertainment Inc. | Glove interface object with thumb-index controller |
KR102244222B1 (ko) * | 2014-09-02 | 2021-04-26 | 삼성전자주식회사 | 가상 현실 서비스를 제공하기 위한 방법 및 이를 위한 장치들 |
WO2016041088A1 (en) * | 2014-09-19 | 2016-03-24 | Sulon Technologies Inc. | System and method for tracking wearable peripherals in augmented reality and virtual reality applications |
US9494799B2 (en) | 2014-09-24 | 2016-11-15 | Microsoft Technology Licensing, Llc | Waveguide eye tracking employing switchable diffraction gratings |
US20160097930A1 (en) | 2014-10-06 | 2016-04-07 | Steven John Robbins | Microdisplay optical system having two microlens arrays |
US10523993B2 (en) * | 2014-10-16 | 2019-12-31 | Disney Enterprises, Inc. | Displaying custom positioned overlays to a viewer |
WO2016064435A1 (en) | 2014-10-24 | 2016-04-28 | Usens, Inc. | System and method for immersive and interactive multimedia generation |
US10256859B2 (en) | 2014-10-24 | 2019-04-09 | Usens, Inc. | System and method for immersive and interactive multimedia generation |
US10495726B2 (en) | 2014-11-13 | 2019-12-03 | WorldViz, Inc. | Methods and systems for an immersive virtual reality system using multiple active markers |
US9684172B2 (en) | 2014-12-03 | 2017-06-20 | Osterhout Group, Inc. | Head worn computer display systems |
WO2016094568A1 (en) * | 2014-12-10 | 2016-06-16 | Sixense Entertainment, Inc. | System and method for assisting a user in remaining in a selected area while the user is in a virtual reality environment |
US9851786B2 (en) | 2014-12-10 | 2017-12-26 | Sixense Entertainment, Inc. | System and method for assisting a user in remaining in a selected area while the user is in a virtual reality environment |
US10771907B2 (en) * | 2014-12-11 | 2020-09-08 | Harman International Industries, Incorporated | Techniques for analyzing connectivity within an audio transducer array |
USD743963S1 (en) | 2014-12-22 | 2015-11-24 | Osterhout Group, Inc. | Air mouse |
US10073516B2 (en) * | 2014-12-29 | 2018-09-11 | Sony Interactive Entertainment Inc. | Methods and systems for user interaction within virtual reality scene using head mounted display |
USD751552S1 (en) | 2014-12-31 | 2016-03-15 | Osterhout Group, Inc. | Computer glasses |
USD753114S1 (en) | 2015-01-05 | 2016-04-05 | Osterhout Group, Inc. | Air mouse |
US10444515B2 (en) | 2015-01-20 | 2019-10-15 | Microsoft Technology Licensing, Llc | Convective optical mount structure |
US10108017B2 (en) | 2015-01-20 | 2018-10-23 | Microsoft Technology Licensing, Llc | Carbon nanoparticle infused optical mount |
US9846968B2 (en) * | 2015-01-20 | 2017-12-19 | Microsoft Technology Licensing, Llc | Holographic bird's eye view camera |
US9791704B2 (en) * | 2015-01-20 | 2017-10-17 | Microsoft Technology Licensing, Llc | Bonded multi-layer graphite heat pipe |
US10028418B2 (en) | 2015-01-20 | 2018-07-17 | Microsoft Technology Licensing, Llc | Metal encased graphite layer heat pipe |
US20170061700A1 (en) * | 2015-02-13 | 2017-03-02 | Julian Michael Urbach | Intercommunication between a head mounted display and a real world object |
US20160239985A1 (en) | 2015-02-17 | 2016-08-18 | Osterhout Group, Inc. | See-through computer display systems |
US11468639B2 (en) * | 2015-02-20 | 2022-10-11 | Microsoft Technology Licensing, Llc | Selective occlusion system for augmented reality devices |
WO2016141208A1 (en) * | 2015-03-04 | 2016-09-09 | Usens, Inc. | System and method for immersive and interactive multimedia generation |
US10003778B2 (en) * | 2015-04-29 | 2018-06-19 | Rovi Guides, Inc. | Systems and methods for augmenting a viewing environment of users |
US10147388B2 (en) | 2015-04-29 | 2018-12-04 | Rovi Guides, Inc. | Systems and methods for enhancing viewing experiences of users |
TW201640180A (zh) * | 2015-05-01 | 2016-11-16 | 尚立光電股份有限公司 | 頭戴式顯示器 |
US9898864B2 (en) * | 2015-05-28 | 2018-02-20 | Microsoft Technology Licensing, Llc | Shared tactile interaction and user safety in shared space multi-person immersive virtual reality |
US9977493B2 (en) * | 2015-06-17 | 2018-05-22 | Microsoft Technology Licensing, Llc | Hybrid display system |
CN105303600A (zh) * | 2015-07-02 | 2016-02-03 | 北京美房云谷网络科技有限公司 | 一种使用虚拟现实眼镜查看3d数字楼盘的方法 |
EP3113106A1 (en) * | 2015-07-02 | 2017-01-04 | Nokia Technologies Oy | Determination of environmental augmentation allocation data |
RU2597462C1 (ru) * | 2015-07-17 | 2016-09-10 | Виталий Витальевич Аверьянов | Способ отображения объекта на пространственной модели |
CN105005145B (zh) * | 2015-08-03 | 2018-02-09 | 众景视界(北京)科技有限公司 | 智能眼镜及智能眼镜的外接设备 |
US10235808B2 (en) | 2015-08-20 | 2019-03-19 | Microsoft Technology Licensing, Llc | Communication system |
US10169917B2 (en) | 2015-08-20 | 2019-01-01 | Microsoft Technology Licensing, Llc | Augmented reality |
CN106484085B (zh) * | 2015-08-31 | 2019-07-23 | 北京三星通信技术研究有限公司 | 在头戴式显示器中显示真实物体的方法及其头戴式显示器 |
CN108028901B (zh) * | 2015-09-16 | 2020-04-21 | 富士胶片株式会社 | 投影型显示装置及投影控制方法 |
US10168769B2 (en) * | 2015-09-28 | 2019-01-01 | Nec Corporation | Input apparatus, input method, and program |
US20170090196A1 (en) * | 2015-09-28 | 2017-03-30 | Deere & Company | Virtual heads-up display application for a work machine |
TWI611340B (zh) * | 2015-10-04 | 2018-01-11 | 義明科技股份有限公司 | 非接觸式手勢判斷方法及其裝置 |
IL293873B2 (en) * | 2015-10-20 | 2024-03-01 | Magic Leap Inc | Selection of virtual objects in three-dimensional space |
US9928658B2 (en) * | 2015-11-02 | 2018-03-27 | International Business Machines Corporation | Overlay for camera field of vision |
US9928648B2 (en) | 2015-11-09 | 2018-03-27 | Microsoft Technology Licensing, Llc | Object path identification for navigating objects in scene-aware device environments |
US10311644B2 (en) * | 2016-12-14 | 2019-06-04 | II Jonathan M. Rodriguez | Systems and methods for creating and sharing a 3-dimensional augmented reality space |
US9990689B2 (en) | 2015-12-16 | 2018-06-05 | WorldViz, Inc. | Multi-user virtual reality processing |
US10834454B2 (en) | 2015-12-17 | 2020-11-10 | Interdigital Madison Patent Holdings, Sas | Personalized presentation enhancement using augmented reality |
WO2017104089A1 (ja) * | 2015-12-18 | 2017-06-22 | 日立マクセル株式会社 | ヘッドマウントディスプレイ連携表示システム、及び、表示装置とヘッドマウントディスプレイとを含むシステム、及び、その表示装置 |
US10095928B2 (en) | 2015-12-22 | 2018-10-09 | WorldViz, Inc. | Methods and systems for marker identification |
US9927614B2 (en) | 2015-12-29 | 2018-03-27 | Microsoft Technology Licensing, Llc | Augmented reality display system with variable focus |
WO2017182315A1 (en) * | 2016-04-22 | 2017-10-26 | Thomson Licensing | Method and device for compositing an image |
US10242501B1 (en) | 2016-05-03 | 2019-03-26 | WorldViz, Inc. | Multi-user virtual and augmented reality tracking systems |
US10395428B2 (en) * | 2016-06-13 | 2019-08-27 | Sony Interactive Entertainment Inc. | HMD transitions for focusing on specific content in virtual-reality environments |
US10126553B2 (en) | 2016-06-16 | 2018-11-13 | Microsoft Technology Licensing, Llc | Control device with holographic element |
US10620717B2 (en) | 2016-06-30 | 2020-04-14 | Microsoft Technology Licensing, Llc | Position-determining input device |
US10134191B2 (en) | 2016-07-18 | 2018-11-20 | Disney Enterprises, Inc. | Systems and methods for generating a virtual space based on a physical layout of objects |
US9972119B2 (en) | 2016-08-11 | 2018-05-15 | Microsoft Technology Licensing, Llc | Virtual object hand-off and manipulation |
TWI622298B (zh) * | 2016-08-23 | 2018-04-21 | 和碩聯合科技股份有限公司 | 廣告影像生成系統及其廣告影像生成之方法 |
US9898871B1 (en) * | 2016-10-05 | 2018-02-20 | Disney Enterprises, Inc. | Systems and methods for providing augmented reality experience based on a relative position of objects |
EP3528034A1 (en) * | 2016-10-11 | 2019-08-21 | Sony Corporation | Display apparatus |
CN106570939A (zh) * | 2016-11-09 | 2017-04-19 | 深圳奥比中光科技有限公司 | 一种3d地图的处理方法及系统 |
CN106568435B (zh) * | 2016-11-09 | 2019-05-31 | 深圳奥比中光科技有限公司 | 一种室内定位方法及系统 |
CN106846456A (zh) * | 2016-11-09 | 2017-06-13 | 深圳奥比中光科技有限公司 | 一种室内3d框架图的生成方法及系统 |
TWI603287B (zh) * | 2016-11-11 | 2017-10-21 | 財團法人工業技術研究院 | 虛擬物件之影像合成方法與裝置 |
CN106526853A (zh) * | 2016-11-11 | 2017-03-22 | 广东小天才科技有限公司 | 头戴式显示设备、主机和分体式虚拟现实系统 |
EP3327677B8 (en) * | 2016-11-25 | 2019-09-18 | Nokia Technologies Oy | An apparatus for spatial audio and associated method |
CN106444042A (zh) * | 2016-11-29 | 2017-02-22 | 北京知境科技有限公司 | 一种增强现实与虚拟现实两用显示设备和可穿戴设备 |
CN106791487A (zh) * | 2016-12-19 | 2017-05-31 | 广东威创视讯科技股份有限公司 | 一种基于机器学习的dlp系统 |
USD864959S1 (en) | 2017-01-04 | 2019-10-29 | Mentor Acquisition One, Llc | Computer glasses |
US11024092B2 (en) * | 2017-02-01 | 2021-06-01 | Pcms Holdings, Inc. | System and method for augmented reality content delivery in pre-captured environments |
AU2018233733B2 (en) * | 2017-03-17 | 2021-11-11 | Magic Leap, Inc. | Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same |
WO2018176235A1 (zh) * | 2017-03-28 | 2018-10-04 | 深圳市柔宇科技有限公司 | 头戴式显示设备及其显示切换方法 |
US10403050B1 (en) | 2017-04-10 | 2019-09-03 | WorldViz, Inc. | Multi-user virtual and augmented reality tracking systems |
JP2017146619A (ja) * | 2017-05-01 | 2017-08-24 | セイコーエプソン株式会社 | 虚像表示装置 |
US20180349837A1 (en) * | 2017-05-19 | 2018-12-06 | Hcl Technologies Limited | System and method for inventory management within a warehouse |
CN108960008B (zh) * | 2017-05-22 | 2021-12-14 | 华为技术有限公司 | Vr显示的方法和装置、vr设备 |
US10621707B2 (en) * | 2017-06-16 | 2020-04-14 | Tilt Fire, Inc | Table reprojection for post render latency compensation |
CN206975323U (zh) * | 2017-06-30 | 2018-02-06 | 深圳市大疆创新科技有限公司 | 头戴式显示设备 |
CN111108746A (zh) * | 2017-09-22 | 2020-05-05 | 惠普发展公司,有限责任合伙企业 | 对象的检测 |
CN111279292B (zh) | 2017-09-29 | 2022-06-14 | 苹果公司 | 检测物理边界 |
US10922878B2 (en) * | 2017-10-04 | 2021-02-16 | Google Llc | Lighting for inserted content |
CN109658514B (zh) * | 2017-10-11 | 2022-03-11 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置和计算机存储介质 |
CN109710054B (zh) * | 2017-10-26 | 2022-04-26 | 北京京东尚科信息技术有限公司 | 用于头戴式显示设备的虚拟物体呈现方法和装置 |
CN108182730B (zh) * | 2018-01-12 | 2022-08-12 | 北京小米移动软件有限公司 | 虚实对象合成方法及装置 |
CN108268138A (zh) * | 2018-01-29 | 2018-07-10 | 广州市动景计算机科技有限公司 | 增强现实的处理方法、装置及电子设备 |
CN108196629A (zh) * | 2018-02-09 | 2018-06-22 | 北京小米移动软件有限公司 | 显示设备 |
US10915781B2 (en) * | 2018-03-01 | 2021-02-09 | Htc Corporation | Scene reconstructing system, scene reconstructing method and non-transitory computer-readable medium |
CN108398787B (zh) * | 2018-03-20 | 2023-05-16 | 京东方科技集团股份有限公司 | 增强现实显示设备、方法和增强现实眼镜 |
US10943402B2 (en) * | 2018-03-20 | 2021-03-09 | Logitech Europe S.A. | Method and system for mixed reality interaction with peripheral device |
CN108445630A (zh) * | 2018-03-21 | 2018-08-24 | 上海纷趣网络科技有限公司 | 一种基于增强现实技术应用于儿童场景的穿戴设备 |
CN108416322B (zh) * | 2018-03-27 | 2019-05-17 | 吉林大学 | 一种虚拟装配坐式操作中目视动作识别方法 |
US11694392B2 (en) | 2018-05-22 | 2023-07-04 | Apple Inc. | Environment synthesis for lighting an object |
TWI669682B (zh) * | 2018-05-25 | 2019-08-21 | 光寶電子(廣州)有限公司 | 影像處理系統及影像處理方法 |
US11227440B2 (en) * | 2018-05-30 | 2022-01-18 | Ke.com (Beijing)Technology Co., Ltd. | Systems and methods for providing an audio-guided virtual reality tour |
US20190371071A1 (en) * | 2018-06-01 | 2019-12-05 | Merge Labs, Inc. | Precise placement of and animation creation for virtual objects in an environment using a trackable three-dimensional object |
US11733824B2 (en) * | 2018-06-22 | 2023-08-22 | Apple Inc. | User interaction interpreter |
GB2574882B (en) * | 2018-06-22 | 2020-08-12 | Sony Interactive Entertainment Inc | Method and system for displaying a virtual object |
CN110673715B (zh) * | 2018-07-02 | 2023-08-25 | 名硕电脑(苏州)有限公司 | 虚拟图像系统 |
CN108995590A (zh) * | 2018-07-26 | 2018-12-14 | 广州小鹏汽车科技有限公司 | 一种人车互动方法、系统及装置 |
JP2021536592A (ja) | 2018-08-31 | 2021-12-27 | マジック リープ, インコーポレイテッドMagic Leap, Inc. | 拡張現実デバイスのための空間的に分解された動的調光 |
JP7206706B2 (ja) * | 2018-08-31 | 2023-01-18 | 積水ハウス株式会社 | シミュレーションシステム |
US11403822B2 (en) * | 2018-09-21 | 2022-08-02 | Augmntr, Inc. | System and methods for data transmission and rendering of virtual objects for display |
WO2020074059A1 (en) | 2018-10-08 | 2020-04-16 | Telefonaktiebolaget Lm Ericsson (Publ) | Improved viewing device and method for providing virtual content overlapping visual objects |
CN113544570A (zh) | 2019-01-11 | 2021-10-22 | 奇跃公司 | 各种深度处的虚拟内容的时间复用显示 |
US20200242280A1 (en) | 2019-01-30 | 2020-07-30 | Augmntr, Inc. | System and methods of visualizing an environment |
KR102174794B1 (ko) * | 2019-01-31 | 2020-11-05 | 주식회사 알파서클 | 복수의 분할영상 중 재생되는 영상의 전환시점을 제어하는 가상현실 분할영상 전환방법 및 가상현실 영상재생장치 |
CN110139028B (zh) * | 2019-03-25 | 2020-07-07 | 华为技术有限公司 | 一种图像处理的方法及头戴式显示设备 |
EP3716217A1 (en) * | 2019-03-28 | 2020-09-30 | InterDigital CE Patent Holdings | Techniques for detection of real-time occlusion |
CN113994386A (zh) * | 2019-06-25 | 2022-01-28 | 苹果公司 | 生成物理布景的空间特征的自适应虚拟内容 |
CN110134197A (zh) * | 2019-06-26 | 2019-08-16 | 北京小米移动软件有限公司 | 可穿戴式控制设备、虚拟/增强现实系统及控制方法 |
WO2021030328A1 (en) | 2019-08-12 | 2021-02-18 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
US11842449B2 (en) | 2019-09-26 | 2023-12-12 | Apple Inc. | Presenting an environment based on user movement |
KR20210066494A (ko) * | 2019-11-28 | 2021-06-07 | 주식회사 지이모션 | 의상의 3차원 모델링 방법 |
US11992373B2 (en) * | 2019-12-10 | 2024-05-28 | Globus Medical, Inc | Augmented reality headset with varied opacity for navigated robotic surgery |
US11410387B1 (en) | 2020-01-17 | 2022-08-09 | Facebook Technologies, Llc. | Systems, methods, and media for generating visualization of physical environment in artificial reality |
US10950034B1 (en) | 2020-01-27 | 2021-03-16 | Facebook Technologies, Llc | Systems, methods, and media for generating visualization of physical environment in artificial reality |
US11113891B2 (en) | 2020-01-27 | 2021-09-07 | Facebook Technologies, Llc | Systems, methods, and media for displaying real-time visualization of physical environment in artificial reality |
US11210860B2 (en) * | 2020-01-27 | 2021-12-28 | Facebook Technologies, Llc. | Systems, methods, and media for visualizing occluded physical objects reconstructed in artificial reality |
US11200745B2 (en) | 2020-01-27 | 2021-12-14 | Facebook Technologies, Llc. | Systems, methods, and media for automatically triggering real-time visualization of physical environment in artificial reality |
US11451758B1 (en) | 2020-02-12 | 2022-09-20 | Meta Platforms Technologies, Llc | Systems, methods, and media for colorizing grayscale images |
US11321931B2 (en) | 2020-03-31 | 2022-05-03 | Home Box Office, Inc. | Creating cloud-hosted, streamed augmented reality experiences with low perceived latency |
US20230127539A1 (en) * | 2020-04-21 | 2023-04-27 | Sony Group Corporation | Information processing apparatus, information processing method, and information processing program |
US20210349310A1 (en) * | 2020-05-11 | 2021-11-11 | Sony Interactive Entertainment Inc. | Highly interactive display environment for gaming |
JP7369669B2 (ja) * | 2020-06-14 | 2023-10-26 | 株式会社スクウェア・エニックス | 拡張現実表示装置及びプログラム |
US11205308B1 (en) * | 2020-11-25 | 2021-12-21 | XRSpace CO., LTD. | Method and electronic apparatus of modifying three-dimensional model |
CN114578554B (zh) * | 2020-11-30 | 2023-08-22 | 华为技术有限公司 | 实现虚实融合的显示设备 |
US11454816B1 (en) * | 2020-12-07 | 2022-09-27 | Snap Inc. | Segmented illumination display |
US12118677B2 (en) * | 2020-12-22 | 2024-10-15 | Arkh, Inc. | Spatially aware environment interaction |
JP7478902B2 (ja) * | 2021-03-25 | 2024-05-07 | 京セラ株式会社 | ウェアラブル端末装置、プログラムおよび表示方法 |
US11495004B1 (en) * | 2021-06-15 | 2022-11-08 | Meta Platforms Technologies, Llc | Systems and methods for lighting subjects for artificial reality scenes |
US11908083B2 (en) | 2021-08-31 | 2024-02-20 | Snap Inc. | Deforming custom mesh based on body mesh |
US11663792B2 (en) | 2021-09-08 | 2023-05-30 | Snap Inc. | Body fitted accessory with physics simulation |
US11798238B2 (en) | 2021-09-14 | 2023-10-24 | Snap Inc. | Blending body mesh into external mesh |
US11836866B2 (en) | 2021-09-20 | 2023-12-05 | Snap Inc. | Deforming real-world object using an external mesh |
CN113570441B (zh) * | 2021-09-26 | 2022-02-01 | 广州新奥达云科技有限公司 | 一种基于虚拟反向投影的物品展示方法和装置 |
US11836862B2 (en) | 2021-10-11 | 2023-12-05 | Snap Inc. | External mesh with vertex attributes |
US11790614B2 (en) * | 2021-10-11 | 2023-10-17 | Snap Inc. | Inferring intent from pose and speech input |
US11763481B2 (en) | 2021-10-20 | 2023-09-19 | Snap Inc. | Mirror-based augmented reality experience |
WO2023079041A1 (en) | 2021-11-05 | 2023-05-11 | Meta Materials Inc. | Lightguide and method of making the same |
US20230306689A1 (en) * | 2022-03-25 | 2023-09-28 | At&T Intellectual Property I, L.P. | Aligning metaverse activities with multiple physical environments |
US20230334792A1 (en) * | 2022-04-18 | 2023-10-19 | Mobeus Industries, Inc. | Interactive reality computing experience using optical lenticular multi-perspective simulation |
US20230343036A1 (en) * | 2022-04-20 | 2023-10-26 | At&T Intellectual Property I, L.P. | Merging multiple environments to create an extended reality environment |
WO2023215637A1 (en) * | 2022-05-06 | 2023-11-09 | Mobeus Industries, Inc. | Interactive reality computing experience using optical lenticular multi-perspective simulation |
US20230379067A1 (en) * | 2022-05-18 | 2023-11-23 | Rohde & Schwarz Gmbh & Co. Kg | Augmented reality spectrum monitoring system |
US20230394770A1 (en) * | 2022-06-02 | 2023-12-07 | Snap Inc. | Input modalities for ar wearable devices |
US12032732B2 (en) * | 2022-06-29 | 2024-07-09 | Paypal, Inc. | Automated configuration of augmented and virtual reality avatars for user specific behaviors |
WO2024039887A1 (en) * | 2022-08-19 | 2024-02-22 | Mobeus Industries, Inc. | Interactive reality computing experience using optical lenticular multi-perspective simulation |
US12001024B2 (en) | 2022-10-12 | 2024-06-04 | Snap Inc. | Energy-efficient adaptive 3D sensing |
WO2024081154A1 (en) * | 2022-10-12 | 2024-04-18 | Snap Inc. | Energy-efficient adaptive 3d sensing |
CN115509017B (zh) * | 2022-11-21 | 2023-05-23 | 蔚来汽车科技(安徽)有限公司 | 增强现实眼镜和利用增强现实眼镜来实现显示增强的方法 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6466207B1 (en) | 1998-03-18 | 2002-10-15 | Microsoft Corporation | Real-time image rendering with layered depth images |
JP2000350865A (ja) * | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体 |
US6330281B1 (en) | 1999-08-06 | 2001-12-11 | Richfx Ltd. | Model-based view extrapolation for interactive virtual reality systems |
US6525731B1 (en) | 1999-11-09 | 2003-02-25 | Ibm Corporation | Dynamic view-dependent texture mapping |
US6674877B1 (en) | 2000-02-03 | 2004-01-06 | Microsoft Corporation | System and method for visually tracking occluded objects in real time |
US7605826B2 (en) | 2001-03-27 | 2009-10-20 | Siemens Corporate Research, Inc. | Augmented reality guided instrument positioning with depth determining graphics |
US6795090B2 (en) | 2001-11-13 | 2004-09-21 | Eastman Kodak Company | Method and system for panoramic image morphing |
US6956566B2 (en) | 2002-05-23 | 2005-10-18 | Hewlett-Packard Development Company, L.P. | Streaming of images with depth for three-dimensional graphics |
EP1567988A1 (en) | 2002-10-15 | 2005-08-31 | University Of Southern California | Augmented virtual environments |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
US7372977B2 (en) | 2003-05-29 | 2008-05-13 | Honda Motor Co., Ltd. | Visual tracking using depth data |
WO2006081198A2 (en) | 2005-01-25 | 2006-08-03 | The Board Of Trustees Of The University Of Illinois | Compact haptic and augmented virtual reality system |
AU2006217569A1 (en) | 2005-02-23 | 2006-08-31 | Craig Summers | Automatic scene modeling for the 3D camera and 3D video |
DE102005009437A1 (de) | 2005-03-02 | 2006-09-07 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Einblenden von AR-Objekten |
US7706603B2 (en) | 2005-04-19 | 2010-04-27 | Siemens Corporation | Fast object detection for augmented reality systems |
KR100809479B1 (ko) | 2006-07-27 | 2008-03-03 | 한국전자통신연구원 | 혼합 현실 환경을 위한 얼굴 착용형 디스플레이 장치 |
JP4789745B2 (ja) * | 2006-08-11 | 2011-10-12 | キヤノン株式会社 | 画像処理装置および方法 |
US20090221368A1 (en) | 2007-11-28 | 2009-09-03 | Ailive Inc., | Method and system for creating a shared game space for a networked game |
US8648865B2 (en) * | 2008-09-26 | 2014-02-11 | International Business Machines Corporation | Variable rendering of virtual universe avatars |
US20100238161A1 (en) | 2009-03-19 | 2010-09-23 | Kenneth Varga | Computer-aided system for 360º heads up display of safety/mission critical data |
US20110075257A1 (en) | 2009-09-14 | 2011-03-31 | The Arizona Board Of Regents On Behalf Of The University Of Arizona | 3-Dimensional electro-optical see-through displays |
US9122707B2 (en) * | 2010-05-28 | 2015-09-01 | Nokia Technologies Oy | Method and apparatus for providing a localized virtual reality environment |
-
2010
- 2010-10-15 US US12/905,952 patent/US8884984B2/en active Active
-
2011
- 2011-10-17 CN CN201110328586.0A patent/CN102419631B/zh active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106560766A (zh) * | 2015-10-04 | 2017-04-12 | 义明科技股份有限公司 | 非接触式手势判断方法及其装置 |
Also Published As
Publication number | Publication date |
---|---|
US20120092328A1 (en) | 2012-04-19 |
US8884984B2 (en) | 2014-11-11 |
CN102419631A (zh) | 2012-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102419631B (zh) | 虚拟内容到现实内容中的融合 | |
CN102566756B (zh) | 用于扩展现实显示的基于理解力和意图的内容 | |
CN102591016B (zh) | 用于扩展现实显示的优化聚焦区 | |
CN102591449B (zh) | 虚拟内容和现实内容的低等待时间的融合 | |
CN102540464B (zh) | 提供环绕视频的头戴式显示设备 | |
CN102566049B (zh) | 用于扩展现实显示的自动可变虚拟焦点 | |
CN102445756B (zh) | 用于扩展现实显示的自动焦点改善 | |
CN105264478B (zh) | 全息锚定和动态定位 | |
CN105359076B (zh) | 多步骤虚拟对象选择方法和装置 | |
KR102208376B1 (ko) | Hmd 상의 하이브리드 월드/바디 락 hud | |
US20130326364A1 (en) | Position relative hologram interactions | |
US20130335405A1 (en) | Virtual object generation within a virtual environment | |
US20140176591A1 (en) | Low-latency fusing of color image data | |
CN105393158A (zh) | 共享的和私有的全息物体 | |
CN107430278A (zh) | 基于用户的上下文敏感全息图反应 | |
CN105452994A (zh) | 虚拟物体的同时优选观看 | |
CN107810634A (zh) | 用于立体增强现实的显示器 | |
Kuntz et al. | The Democratization of VR‐AR |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
ASS | Succession or assignment of patent right |
Owner name: MICROSOFT TECHNOLOGY LICENSING LLC Free format text: FORMER OWNER: MICROSOFT CORP. Effective date: 20150723 |
|
C41 | Transfer of patent application or patent right or utility model | ||
TR01 | Transfer of patent right |
Effective date of registration: 20150723 Address after: Washington State Patentee after: Micro soft technique license Co., Ltd Address before: Washington State Patentee before: Microsoft Corp. |