CN116670564A - 头戴式设备和连接器 - Google Patents
头戴式设备和连接器 Download PDFInfo
- Publication number
- CN116670564A CN116670564A CN202180076445.6A CN202180076445A CN116670564A CN 116670564 A CN116670564 A CN 116670564A CN 202180076445 A CN202180076445 A CN 202180076445A CN 116670564 A CN116670564 A CN 116670564A
- Authority
- CN
- China
- Prior art keywords
- headset
- display
- head
- electronic device
- connector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1407—General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0149—Head-up displays characterised by mechanical features
- G02B2027/0169—Supporting or connecting means other than the external walls
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
- Headphones And Earphones (AREA)
Abstract
多个头戴设备和/或其他电子设备可协同操作以向多个用户提供共享体验和内容享受。可通过多个头戴设备和/或其他电子设备之间的连接来促进此类操作以允许不同用户接收内容。这种连接可通过将头戴设备和/或其他电子设备直接且物理地彼此连接并且在其间传输信号的连接器来实现。通过提供物理连接,即使当其他类型的连接(例如,无线连接)不可用时,也可有效地传输这些信号。
Description
相关申请的交叉引用
本申请要求2020年9月15日提交的名称为“HEAD-MOUNTABLE DEVICE ANDCONNECTOR”的美国临时申请第63/078,814号的权益,其全部内容以引用方式并入本文。
技术领域
本说明书整体涉及头戴式设备,并且更具体地,涉及与连接器一起使用的头戴式设备。
背景技术
用户可佩戴头戴式设备以在该用户的视场内显示视觉信息。头戴式设备可用作虚拟现实系统、增强现实系统和/或混合现实系统。用户可观察由头戴式设备提供的输出,诸如在显示器上提供的视觉信息。显示器可任选地允许用户观察在头戴式设备外部的环境。由头戴式设备提供的其他输出可包括扬声器输出和/或触觉反馈。用户可通过提供输入以供头戴式设备的一个或多个部件进行处理来进一步与该头戴式设备交互。例如,在设备安装到用户的头部的同时,该用户可以提供触觉输入、语音命令和其他输入。
附图说明
本主题技术的一些特征在所附权利要求书中予以阐述。然而,出于解释的目的,在以下附图中阐述了本主题技术的若干实施方案。
图1示出了根据本公开的一些实施方案的头戴式设备的顶视图。
图2示出了根据本公开的一些实施方案的头戴式设备和用于将头戴式设备彼此可操作地连接的连接器的后视图。
图3示出了根据本公开的一些实施方案的彼此连接并且由独立的用户佩戴的头戴式设备的顶视图。
图4示出了根据本公开的一些实施方案的图3的各自提供用户界面的头戴式设备的后视图。
图5示出了根据本公开的一些实施方案的图3的各自提供用户界面的头戴式设备的后视图。
图6示出了根据本公开的一些实施方案的图3的各自提供用户界面的头戴式设备的后视图。
图7示出了根据本公开的一些实施方案的彼此连接的头戴式设备和电子设备的顶视图。
图8示出了根据本公开的一些实施方案的图7的各自提供用户界面的头戴式设备和电子设备的后视图。
图9示出了根据本公开的一些实施方案的通过连接器可操作地彼此连接的头戴式设备和外部设备的后视图。
图10示出了根据本公开的一些实施方案的通过连接器可操作地彼此连接的头戴式设备和外部设备的后视图。
图11示出了根据本公开的一些实施方案的头戴式设备的框图。
具体实施方式
下面示出的具体实施方式旨在作为本主题技术的各种配置的描述并且不旨在表示本主题技术可被实践的唯一配置。附图被并入本文并且构成具体实施方式的一部分。具体实施方式包括具体的细节旨在提供对本主题技术的透彻理解。然而,对于本领域的技术人员来说将清楚和显而易见的是,本主题技术不限于本文示出的具体细节并且可在没有这些具体细节的情况下被实践。在一些情况下,以框图形式示出了熟知的结构和部件,以便避免使本主题技术的概念模糊。
头戴式设备,诸如头戴式显示器、头戴式耳机、护目镜、智能眼镜、平视显示器等,可执行由可穿戴设备所包括的部件(例如,传感器、电路和其他硬件)管理的一系列功能。
多个头戴设备可协同操作以向多个用户提供共享体验和内容享受。可通过多个头戴设备和/或其他电子设备之间的连接来促进此类操作以允许不同用户接收内容。这种连接可通过将头戴设备和/或其他电子设备直接且物理地彼此连接并且在其间传输信号的连接器来实现。通过提供物理连接,即使当其他类型的连接(例如,无线连接)不可用时,也可有效地传输这些信号。
处理的负担可在多个设备之间共享并且/或者委托给指定的设备。被提供用于在一个设备上输出的至少一些内容可被传输到另一个设备以在那里输出。连接可以减少生成内容以及/或者调适内容的负担以在任何给定设备上输出的方式促进此类传输。工作负载的分配和/或集中以及已处理信息的共享可引起在设备中的一个或多个设备处大大改进的功率管理和热生成。
下面参考图1至图11来讨论这些实施方案和其他实施方案。然而,本领域的技术人员将容易地理解,本文相对于这些附图所给出的详细描述仅出于说明性目的,而不应被理解为是限制性的。
如图1所示,头戴式设备100可包括框架110和头部接合器200。框架110可佩戴在用户的头部上。框架110可定位在用户的眼睛的前面以在用户的视场内提供信息。框架110可任选地提供搁置在用户的鼻部上的鼻形件和/或抵靠用户的面部的其他面部接合部分。
框架110可用头部接合器120支撑在用户的头部上。头部接合器120可沿着用户头部的相对侧和/或向用户头部的后部缠绕或延伸。头部接合器120可任选地包括用于缠绕或者以其他方式接合或搁置在用户的耳朵上的耳机。应当理解,可应用其他配置来将头戴式设备100固定到用户的头部。例如,除了头戴式设备100的所例示的部件之外或作为其代替,可使用一个或多个绑带、条带、束带、盖、帽或其他部件。
框架110可围绕其外围区域提供结构,以将头戴式设备100的任何内部部件支撑在它们的组装位置。例如,框架110可包封并支撑各种内部部件(包括例如集成电路芯片、处理器、存储器设备和其他电路),以为头戴式设备100提供计算和功能操作,如本文进一步所讨论。虽然在头戴式设备100的框架110内示出了若干部件,但应当理解,这些部件中的一些或全部可位于头戴式设备100之内或之上的任何位置。例如,这些部件中的一个或多个多部件可定位在头戴式设备100的面部接合模块180、臂部190和/或头部接合器200内。
头戴式设备100可包括和/或支撑一个或多个相机模块130。相机模块130可定位在框架110的外侧112之上或附近,以捕获头戴式设备100外部的视野的图像。如本文所使用,头戴式设备的一部分的外侧是背向用户和/或朝向外部环境的一侧。所捕获的图像可用于显示给用户或存储用于任何其他目的。相机模块130中的每个相机模块能够沿外侧112移动。例如,可提供轨道或其他引导件以促进相机模块130在其中的移动。
头戴式设备100可包括显示器140,该显示器提供视觉输出以供佩戴头戴式设备100的用户查看。一个或多个显示器140可定位在框架110的内侧114上或附近。如本文所使用,头戴式设备100的一部分的内侧114是面朝用户和/或朝向外部环境的一侧。
显示器140可透射来自物理环境的光(例如,如由相机模块所捕获)以供用户查看。这种显示器140可包括光学特性,诸如用于基于来自物理环境的入射光进行视力矫正的透镜。附加地或另选地,显示器140可以作为用户视场内的显示器提供信息。此类信息可通过排除物理环境的视图或除了(例如,覆盖)物理环境来提供。
物理环境是指人们在没有电子系统帮助的情况下能够感测和/或交互的物理世界。计算机生成现实环境是指人们经由电子系统感测和/或交互的完全或部分模拟的环境。计算机生成现实的示例包括虚拟现实、混合现实和增强现实等。虚拟现实环境包括人可感测和/或交互的多个虚拟对象。如本文所使用,混合现实环境是指被设计成除了包括计算机生成的感官输入(例如,虚拟对象)之外还结合来自物理环境的感官输入或其表示的模拟环境。混合现实的示例包括增强现实和增强虚拟。增强现实环境是指其中一个或多个虚拟对象叠加在物理环境或其表示之上的模拟环境。增强虚拟环境是指其中虚拟或计算机生成的环境结合来自物理环境的一个或多个感官输入的模拟环境。感官输入可以是物理环境的一个或多个特性的表示。又如,虚拟对象可以采用一个或多个成像传感器所成像的物理物品的形状或颜色。再如,虚拟对象可以采用符合太阳在物理环境中的定位的阴影。
每个显示器140可被调整以与用户的对应眼睛对准。例如,每个显示器140可沿一个或多个轴线移动,直到每个显示器140的中心与对应眼睛的中心对准为止。因此,在显示器140之间的距离可基于用户的瞳距(“IPD”)来设置和/或改变。IPD被定义为用户眼睛的瞳孔中心之间的距离。
框架110和/或面部接合模块180可包括传感器170。传感器170可以被定位和布置成检测用户的特性,诸如面部特征。例如,这样的用户传感器可执行面部特征检测、面部运动检测、面部识别、眼睛跟踪、用户情绪检测、用户情感检测、语音检测等。又如,传感器170可包括IMU、深度传感器、用户输入部件(例如,触摸传感器、冠部、触摸板、按钮、麦克风等)。
眼睛跟踪传感器可跟踪佩戴头戴式设备100的用户的特征,包括用户眼睛的状况(例如,焦距、瞳孔大小等)。例如,眼睛传感器可光学地捕获眼睛(例如,瞳孔)的视图并且确定用户凝视的方向。此类眼睛跟踪可用于确定相对于显示器140和/或其上呈现的元素的感兴趣的位置和/或方向。此类信息可用作头戴式设备100和/或另一设备的输出的基础,如本文所述。
例如,用户界面元素然后可基于该信息被提供在头戴式设备100和/或另一设备的显示器140上,例如在沿着用户凝视的方向的区域中或除了当前凝视方向之外的区域中,如本文进一步描述的。由眼睛跟踪传感器进行的检测可确定被解释为用户输入的用户动作。此类用户输入可单独使用或与其他用户输入组合使用以执行某些动作。又如,此类传感器可执行面部特征检测、面部运动检测、面部识别、用户情绪检测、用户情感检测、语音检测等。
现在参考图2,可提供连接器以促进多个设备之间的通信。如图2所示,系统2可包括第一电子设备(例如,头戴式设备100)和第二电子设备(例如,头戴式设备200或另一电子设备)。应当理解,第一电子设备和/或第二电子设备可以是头戴式设备和/或另一电子设备。这样,虽然参考头戴式设备,但是本文提供的描述可应用于其他电子设备。
系统2可包括被配置为可操作地连接到多个电子设备(例如,头戴式设备100和头戴式设备200)中的每个电子设备的连接器50。例如,连接器50可包括两个或更多个端部部分60,每个端部部分包括用于促进附接到多个电子设备中的每个电子设备以及与其通信的机构。
连接器50的每个端部部分60可包括一个或多个附接元件62,该一个或多个附接元件被配置为通过接合对应头戴式设备的互补附接元件162或262来促进连接器50与对应头戴式设备的机械耦接或连接。附接元件62、162和/或262可包括用于将连接器50的所选择的端部部分60牢固地附接到对应头戴式设备的对应连接端口160或260的凸起部、凹槽、锁、闩锁、卡扣、螺钉、扣钩、螺纹、磁体和/或销。
连接器50的每个端部部分60可包括一个或多个通信接口64,该一个或多个通信接口促进连接器50与对应头戴式设备之间的通信链路。通信接口64可包括多个特征部中的一个或多个特征部,诸如电连接器、弹簧针、导电表面、无线接收器/发射器和/或用于可通信地耦接到对应头戴式设备的通信接口164或264的电感耦接特征部(例如,线圈)。通信接口64、164和/或264可包括成对的导电触点,这些导电触点被配置为当端部部分60与连接端口160和/或260彼此接合时进行电接触。例如,通信接口64、164和/或264中的一者或多者可包括用于进行电连接的可移动元件,诸如至少部分塌缩的弹簧针和/或至少部分柔性的接触垫。又如,弹簧针可以是弹簧加载的并且/或者接触垫可由导电泡沫或弹性体形成。
当分开时,例如当由独立的用户佩戴时,头戴式设备100和头戴式设备200可各自独立地操作。当由连接器50连接时,头戴式设备100和头戴式设备200可彼此通信并且协同操作。因此,信号可由头戴式设备100和头戴式设备200中的每个头戴式设备经由连接器50传输和接收。
连接器50可促进设备之间的直接连接。例如,连接器50可包括在设备之间传输未经修改的信号的传导线,使得在目的地设备处接收到信号基本上与从源设备传输的信号一样。
在一些实施方案中,连接器50可包括控制器70,该控制器被配置为修改和/或以其他方式控制经由连接器50在设备之间传输的信号。例如,控制器70可被配置为修改来自一个设备的信号,使得所得到的经修改的信号是更容易由目的地设备利用的信号。
在由连接器50连接的设备之间共享的信号可与由两个设备提供的输出相关。例如,可操作头戴式设备100以在其显示器140处提供输出,并且头戴式设备100可经由连接器50向头戴式设备200输出信号,因此头戴式设备200可在其显示器240处提供相关输出。经由连接器50传输的信号可与用于操作显示器140的信号相同或类似。因此,头戴式设备100可用最少的附加处理来输出信号。
又如,头戴式设备200可向显示器240提供头戴式设备100的显示器140中的不同特性。例如,显示器240可具有相对于头戴式设备100的显示器140不同的分辨率、操作帧速率和/或其他特性。因此,从头戴式设备100传输到连接器50的信号可能需要修改以适合头戴式设备200的显示器240。
在一些实施方案中,连接器50的控制器70可被配置为对在其处接收到的信号执行一个或多个修改。例如,控制器70可执行样本率转换。此类操作的示例可包括采样频率转换、重新采样、上采样、下采样、内插、抽取、上缩放、下缩放等。连接器50的控制器70可基于头戴式设备(例如,其显示器)的所检测到的特性来确定此类信号修改的参数。例如,连接器50的控制器70当连接到对应连接端口时可检测显示器140和/或显示器240的一个或多个特性。控制器70然后可确定对信号的修改是否合适以及/或者对信号进行哪种修改是合适的。这种修改可基于信号的源和目的地来应用。因此,连接器50可减少对传输和/或接收设备修改在它们之间传输的信号的需要,从而减少所连接的设备上的处理负荷。
虽然信号可与由显示器140和/或240提供的输出相关,但是应当理解,由连接器50传输的相同或不同的信号可与在头戴式设备之间共享的其他内容相关。例如,连接器50可传输与由设备提供的其他输出相关的信号,诸如声音、触觉反馈等。连接器50可在设备之间传输信号,而不必需要提供相关输出。
控制器70可被集成到连接器50中。例如,如图2所示,控制器70可定位在连接器50的端部部分60之间。因此,在一个端部部分60处接收到的信号可经由控制器70传输,该控制器可在将经修改的信号传输到另一端部部分60之前如本文所述对信号进行操作。控制器70可包括一个或多个处理单元,该一个或多个处理单元包括或被配置为访问其上存储有指令的存储器。控制器70可实现为能够处理、接收或传输信号、数据或指令的任何电子设备。例如,控制器70可包括以下各项中的一者或多者:微处理器、中央处理单元(CPU)、专用集成电路(ASIC)、数字信号处理器(DSP)或此类设备的组合。
连接器50的控制器70和/或其他部件可基于从连接器50所连接到的一个或多个设备汲取的电力来操作。附加地或另选地,连接器50可包括其自己的电源(例如,电池等)以及/或者连接到另一电源(例如,电源插座等)。
虽然在图2中示出了两个头戴式设备,但是应当理解,连接器50可连接到任意数量的头戴式设备和/或其他电子设备。例如,连接器50可具有用于将三个或更多个头戴式设备和/或其他电子设备可操作地彼此连接的三个或更多个端部部分60。在这样的布置中,这些设备中的任一者可将信号传输到任何其他设备,并且这些设备中的任一者可从任何其他设备接收信号。
现在参考图3至图6,两个或更多个头戴式设备当通过连接器彼此连接时可协同操作。每个头戴式设备的操作可向佩戴头戴式设备的用户中的每个用户提供输出。
如图3所示,第一用户10可佩戴并操作第一头戴式设备100,并且第二用户20可佩戴并操作第二头戴式设备200。第一头戴式设备100和第二头戴式设备200可通过连接器50彼此连接,如本文所述。头戴式设备可由每个用户独立地操作。例如,第一用户10可引导第一头戴式设备100捕获可包括第一对象90的视场132的图像。又如,第二用户20可引导第二头戴式设备200捕获可包括第二对象92的视场232的图像。
现在参考图4,头戴式设备可共享输出,使得向用户中的每个用户呈现相关内容。该内容可至少部分地基于所生成内容的相同源。
图4示出了向显示器140提供第一用户界面142的第一头戴式设备100和向显示器240提供第二用户界面242的第二头戴式设备200的后视图。然而,并非所有所描绘的图形元素均可在所有具体实施中使用,并且一个或多个具体实施可包括与图中所示的那些相比附加的或不同的图形元素。可进行这些图形元素的布置和类型的变化,而不脱离本文所列出的权利要求的实质或范围。可提供附加的部件、不同的部件或更少的部件。
第一用户界面142和第二用户界面242可包括视觉特征的描绘。任选地,视觉特征可包括由头戴式设备100的相机捕获的对象90或另一对象的图像,诸如媒体内容、视频、图像、虚拟对象、菜单、文本等。在一些实施方案中,由于选择头戴式设备中的一个头戴式设备作为两个用户的内容提供者,因此用户界面142和242可具有共同元素。此类内容可包括例如视觉特征、音频、触觉反馈等。
应当理解,尽管在用户界面142和242两者中提供了共同元素,但是头戴式设备100和200可以允许每个用户通过移动和/或旋转对应头戴式设备来调整视图的方式由对应用户独立地操作。这样,可根据独立的用户动作来独立地体验内容元素(例如,环境)的共同集合。附加地或另选地,一个用户界面可以是另一个用户界面的复制,使得两个用户接收相同的内容。
在头戴式设备中的一个头戴式设备向两者提供内容的情况下,另一个头戴式设备可减轻生成要输出的内容的一些处理负载。特别地,在连接器50修改来自源的信号的情况下,目的地可接收经修改的信号,这些经修改的信号作为输出被容易地提供给对应的用户。
现在参考图5和图6,头戴式设备可各自提供至少部分地基于从另一头戴式设备传输的信号的输出。由头戴式设备中的每个头戴式设备接收的操作、检测和/或输入可任选地影响另一个设备如何执行。
图5和图6示出了向显示器140提供第一用户界面142的第一头戴式设备100和向显示器240提供第二用户界面242的第二头戴式设备200的其他后视图。然而,并非所有所描绘的图形元素均可在所有具体实施中使用,并且一个或多个具体实施可包括与图中所示的那些相比附加的或不同的图形元素。可进行这些图形元素的布置和类型的变化,而不脱离本文所列出的权利要求的实质或范围。可提供附加的部件、不同的部件或更少的部件。
头戴式设备中的一个或多个头戴式设备可基于多个头戴式设备的操作来呈现内容。例如,如图5所示,第一用户界面142可包括由第一头戴式设备100的相机捕获的对象90的图像以及由第二头戴式设备200的相机捕获的第二对象92的图像。类似地,第二用户界面242可包括由第二头戴式设备200的相机捕获的第二对象92的图像以及由第一头戴式设备100的相机捕获的第一对象90的图像。此类图像可同时和/或按顺序呈现。应当理解,所呈现的内容不限于由相机捕获的图像。相反,内容可附加地或另选地包括来自设备中的任一者或两者的内容,包括媒体内容、视频、图像、虚拟对象、菜单、文本等。
如图6所示,第一用户界面142可包括由第一头戴式设备100的相机捕获的对象90的图像和/或其他内容。第二用户界面242还可包括与第一用户界面142的内容(例如,第一对象90的图像)相关的内容。任选地,可在头戴式设备中的一个头戴式设备上提供附加内容。例如,可在第二用户界面242上提供视觉特征94以向第二用户指示与第一用户相关的状况。例如,第一用户可提供输入或以其他方式执行可检测的动作。又如,第一用户可能正在凝视可由第一头戴式设备100的眼睛跟踪传感器来检测的方向(例如,在第一用户的注意力的目标处)。关于第一用户对第一头戴式设备100的操作的此类附加信息可经由连接器50被传送并且作为输出经由第二头戴式设备200被提供给第二用户(例如,作为视觉特征94)。应当理解,此类输出可包括视觉特征、音频、触觉反馈等。
现在参考图7,头戴式设备可与通过连接器连接到该头戴式设备的另一电子设备协同操作。头戴式设备和/或电子设备的操作可向操作对应设备的用户中的每个用户提供输出。
如图3所示,第一用户10可佩戴并操作第一头戴式设备100,并且第二用户20可佩戴并操作第二头戴式设备200。第一头戴式设备100和第二头戴式设备200可通过连接器50彼此连接,如本文所述。头戴式设备可由每个用户独立地操作。例如,第一用户10可引导第一头戴式设备100捕获可包括第一对象90的视场132的图像。又如,第二用户20可引导第二头戴式设备200捕获可包括第二对象92的视场232的图像。
现在参考图7和图8,头戴式设备可共享输出,使得向用户中的每个用户呈现相关内容。该内容可至少部分地基于所生成内容的相同源。
如图7所示,第一用户10可佩戴并操作头戴式设备100,并且另一用户(未示出)可操作电子设备300。电子设备可包括平板电脑、电话、膝上型计算设备、台式计算设备、可穿戴设备、移动计算设备、平板计算设备、显示器、电视、数字媒体播放器、头戴式设备和/或任何其他电子设备。头戴式设备100和电子设备300可通过连接器50彼此连接,如本文所述。头戴式设备100和电子设备300可由每个用户独立地操作。例如,第一用户10可引导头戴式设备100捕获可包括对象90的视场132的图像。
图8示出了向显示器140提供第一用户界面142的头戴式设备100和向显示器340提供第二用户界面342的电子设备300的后视图。然而,并非所有所描绘的图形元素均可在所有具体实施中使用,并且一个或多个具体实施可包括与图中所示的那些相比附加的或不同的图形元素。可进行这些图形元素的布置和类型的变化,而不脱离本文所列出的权利要求的实质或范围。可提供附加的部件、不同的部件或更少的部件。
如图8所示,第一用户界面142可包括由头戴式设备100的相机捕获的对象90的图像和/或其他内容。第二用户界面342还可包括与第一用户界面142的内容(例如,对象90的图像)相关的内容。
任选地,可在设备中的一者或两者上提供附加内容。例如,可在第一用户界面142上提供视觉特征96以向第一用户指示与第二用户相关的状况。例如,第二用户可提供输入或以其他方式执行可检测的动作。又如,第二用户可正在操作电子设备300的触摸传感器以与其进行交互以及/或者以其他方式提供感兴趣的项目或区的指示。关于第二用户对电子设备300的操作的此类附加信息可经由连接器50传送并且作为输出经由头戴式设备100提供给第一用户(例如,作为视觉特征96)。应当理解,此类输出可包括视觉特征、音频、触觉反馈等。
应当理解,尽管在用户界面142和342两者中提供了共同元素,但是头戴式设备100和电子设备300可以允许每个用户通过移动和/或旋转头戴式设备100以及/或者在电子设备300的显示器340上滚动(例如,经由触摸输入)来调整视图的方式由对应用户独立地操作。这样,可根据独立的用户动作来独立地体验内容元素(例如,环境)的共同集合。附加地或另选地,一个用户界面可以是另一个用户界面的复制,使得两个用户接收相同的内容。
现在参考图9和图10,外部设备可促进多个头戴式设备和/或其他电子设备之间的连接。可提供一个或多个连接器以促进设备之间的通信。
如图9所示,系统2可包括第一电子设备(例如,头戴式设备100)和第二电子设备(例如,头戴式设备200或另一电子设备)。应当理解,第一电子设备和/或第二电子设备可以是头戴式设备和/或另一电子设备。这样,虽然参考头戴式设备,但是本文提供的描述可应用于其他电子设备。
系统2可包括被配置为可操作地连接到多个电子设备(例如,头戴式设备100和头戴式设备200)中的每个电子设备以及连接到外部设备500的连接器50。例如,连接器50可包括至少三个端部部分60,每个端部部分包括用于促进附接到多个电子设备中的每个电子设备以及与其通信的机构。
当由连接器50连接到外部设备500时,头戴式设备100和头戴式设备200可彼此通信并且协同操作。因此,信号可由头戴式设备100、头戴式设备200和外部设备500中的每个设备经由连接器50传输和接收。如图9所示,单个连接器50可提供与连接到设备所需的端部部分一样多的端部部分60。
在由连接器50连接的设备之间共享的信号可与由用户操作的设备提供的输出相关。例如,可操作外部设备500来传输信号,以在头戴式设备中的每个头戴式设备或其他电子设备处提供输出。又如,可操作外部设备500以从头戴式设备或其他电子设备中的一者或多者接收信号,并且向头戴式设备或其他电子设备中的另一者或多者传输信号或经修改的信号。
在一些实施方案中,外部设备500可执行本文相对于连接器50和/或其控制器所述的一个或多个操作(例如,样本率转换)。因此,外部设备500可减少对传输和/或接收设备修改在它们之间传输的信号的需要,从而减少所连接的设备上的处理负荷。
外部设备500可基于从连接器50所连接到的一个或多个设备汲取的电力来操作。附加地或另选地,外部设备500可包括其自己的电源(例如,电池等)以及/或者连接到另一电源(例如,电源插座等)。
虽然在图9中示出了两个头戴式设备,但是应当理解,连接器50可连接到任意数量的头戴式设备和/或其他电子设备。例如,连接器50可具有用于可操作地连接两个或更多个头戴式设备和/或其他电子设备以及外部设备500的三个或更多个端部部分60。在这样的布置中,这些设备中的任一者可将信号传输到任何其他设备,并且这些设备中的任一者可从任何其他设备接收信号。
如图10所示,系统2可包括经由连接器50连接到外部设备500的第一电子设备(例如,头戴式设备100)和经由不同的连接器50连接到外部设备500的第二电子设备(例如,头戴式设备200或另一电子设备)。当由连接器50连接到外部设备500时,头戴式设备100和头戴式设备200可彼此通信并且协同操作。因此,信号可由头戴式设备100、头戴式设备200和外部设备500中的每个设备经由连接器50传输和接收。
虽然在图10中示出了两个头戴式设备,但是应当理解,任意数量的连接器50可连接到任意数量的头戴式设备和/或其他电子设备以及外部设备500。例如,两个或更多个连接器50可以可操作地连接到两个或更多个头戴式设备和/或其他电子设备以及外部设备500。在这样的布置中,这些设备中的任一者可将信号传输到任何其他设备,并且这些设备中的任一者可从任何其他设备接收信号。
现在参考图11,头戴式设备的部件、电子设备和/或外部设备可以可操作地连接以提供本文所述的性能。图11示出了根据本公开的实施方案的例示性头戴式设备100、头戴式设备200、电子设备300和/或外部设备500的简化框图。应当理解,可在本主题公开的范围内利用附加部件、不同部件或比所示的那些更少的部件。
如图11所示,设备100、200、300和/或500可包括具有一个或多个处理单元的处理器150(例如,控制电路),该一个或多个处理单元包括或被配置为访问其上存储有指令的存储器182。指令或计算机程序可被配置为执行相对于设备100、200、300和/或500所述的操作或功能中的一者或多者。处理器150可实现为能够处理、接收或传输数据或指令的任何电子设备。例如,处理器150可包括以下项中的一者或多者:微处理器、中央处理单元(CPU)、专用集成电路(ASIC)、数字信号处理器(DSP)或此类设备的组合。如本文所述,术语“处理器”意在涵盖单个处理器或处理单元、多个处理器、多个处理单元或一个或多个其他适当配置的计算元件。
存储器182可存储可由设备100、200、300和/或500使用的电子数据。例如,存储器182可存储电数据或内容,诸如例如音频和视频文件、文档和应用、设备设置和用户偏好、用于各种模块、数据结构或数据库的定时和控制信号或数据等。存储器182可被配置为任何类型的存储器。仅以举例的方式,存储器182可以实现为随机存取存储器、只读存储器、闪存存储器、可移动存储器、或其他类型的存储元件或此类设备的组合。
设备100、200、300和/或500还可包括用于显示用户的视觉信息的显示器140。显示器140可提供视觉(例如,图像或视频)输出。显示器140可以是或包括不透明、透明和/或半透明的显示器。显示器140可具有透明或半透明的媒介,代表图像的光通过该媒介被引导到用户的眼睛。显示器140可利用数字光投影、OLED、LED、uLED、硅基液晶、激光扫描光源或这些技术的任意组合。媒介可以是光学波导、全息图媒介、光学组合器、光学反射器、或它们的任意组合。在一个实施方案中,透明或半透明显示器可被配置为选择性地变得不透明。基于投影的系统可以采用将图形图像投影到人的视网膜上的视网膜投影技术。投影系统也可以被配置为将虚拟对象投影到物理环境中,例如作为全息图或在物理表面上。设备100、200、300和/或500可包括光学子组件,该光学子组件被配置为帮助光学地调整和正确地投影由显示器140显示的基于图像的内容以供近距离查看。光学子组件可以包括一个或多个透镜、反射镜或其他光学设备。
有许多不同类型的电子系统使人能够感测和/或与各种计算机生成现实环境交互。示例包括头戴式系统、基于投影的系统、平视显示器(HUD)、集成有显示能力的车辆挡风玻璃、集成有显示能力的窗户、被形成为设计用于放置在人的眼睛上的透镜的显示器(例如,类似于隐形眼镜)、耳机/听筒、扬声器阵列、输入系统(例如,具有或不具有触觉反馈的可穿戴或手持式控制器)、智能电话、平板电脑、以及台式/膝上型计算机。头戴式系统可具有集成不透明显示器和一个或多个扬声器。另选地,头戴式系统可被配置为接受外部不透明显示器(例如,智能电话)。头戴式系统可结合用于捕获物理环境的图像或视频的一个或多个成像传感器、和/或用于捕获物理环境的音频的一个或多个麦克风。头戴式系统可具有透明或半透明显示器,而不是不透明显示器。透明或半透明显示器可以具有媒介,代表图像的光通过该媒介被引导到人的眼睛。显示器可以利用数字光投影、OLED、LED、uLED、硅基液晶、激光扫描光源或这些技术的任意组合。媒介可以是光学波导、全息图媒介、光学组合器、光学反射器、或它们的任意组合。在一个实施方案中,透明或半透明显示器可被配置为选择性地变得不透明。基于投影的系统可以采用将图形图像投影到人的视网膜上的视网膜投影技术。投影系统也可以被配置为将虚拟对象投影到物理环境中,例如作为全息图或在物理表面上。
设备100、200、300和/或500可包括连接端口160和/或260,如本文所述。
设备100、200、300和/或500可包括一个或多个传感器170,如本文所述。设备100、200、300和/或500可包括一个或多个其他传感器。此类传感器可以被配置为基本上感测任何类型的特征,诸如但不限于图像、压力、光、触摸、力、温度、位置、运动等。例如,传感器可以是光电探测器、温度传感器、光或光学传感器、大气压力传感器、湿度传感器、磁体、陀螺仪、加速度计、化学传感器、臭氧传感器、微粒计数传感器等等。又如,传感器可以是用于跟踪生物特征特性(诸如健康和活动量度)的生物传感器。其他用户传感器可执行面部特征检测、面部运动检测、面部识别、眼睛跟踪、用户情绪检测、用户情感检测、语音检测等。传感器可包括可捕获外部世界的基于图像的内容的相机。
设备100、200、300和/或500可包括输入/输出部件186,该输入/输出部件可包括用于将设备100、200、300和/或500连接到其他设备的任何合适的部件。合适的部件可包括例如音频/视频插孔、数据连接器、或任何附加的或另选的输入/输出部件。输入/输出部件186可包括按钮、按键或者可充当供用户操作的键盘的另一特征部。
设备100、200、300和/或500可包括如本文所述的麦克风188。麦克风188可以可操作地连接到处理器150,以用于对声音水平的检测和检测结果的通信以进行进一步处理,如本文进一步描述的。
设备100、200、300和/或500可包括扬声器194。扬声器194可以可操作地连接到处理器150,以控制扬声器输出,包括声音水平,如本文进一步描述的。
设备100、200、300和/或500可包括用于使用任何合适的通信协议与一个或多个服务器或其他设备进行通信的通信电路192。例如,通信电路192可支持Wi-Fi(例如802.11协议)、以太网、蓝牙、高频系统(例如900MHz、2.4GHz和5.6GHz通信系统)、红外、TCP/IP(例如TCP/IP层中的每个层中所使用的协议中的任何协议)、HTTP、BitTorrent、FTP、RTP、RTSP、SSH、任何其他通信协议或它们的任何组合。通信电路192还可包括用于发射和接收电磁信号的天线。
设备100、200、300和/或500可包括电池或其他电源,其可对设备100、200、300和/或500的部件进行充电和/或供电。电池还可对连接到设备100、200、300和/或500的部件进行充电和/或供电。
因此,本公开的实施方案提供了可协同操作以向多个用户提供共享体验和内容享受的多个头戴设备和/或其他电子设备。可通过多个头戴设备和/或其他电子设备之间的连接来促进此类操作以允许不同用户接收内容。这种连接可通过将头戴设备和/或其他电子设备直接且物理地彼此连接并且在其间传输信号的连接器来实现。通过提供物理连接,即使当其他类型的连接(例如,无线连接)不可用时,也可有效地传输这些信号。
为了方便起见,下文将本公开的各方面的各种示例描述为条款。这些示例以举例的方式提供,并且不限制主题技术。
条款A:一种系统,包括:头戴式设备:第一显示器;和第一连接端口,该第一连接端口被配置为输出与在该第一显示器上提供的第一图像对应的信号;电子设备,该电子设备包括:第二显示器;和第二连接端口;和连接器,该连接器包括:第一端部,该第一端部被配置为由该头戴式设备的该第一连接端口接收;第二端部,该第二端部被配置为由该电子设备的该第二连接端口接收;和控制器,该控制器被配置为从该头戴式设备的该第一连接端口接收该信号并且在该第二端部处向该电子设备输出经修改的信号,其中该电子设备被配置为基于该经修改的信号在该第二显示器上提供第二图像。
条款B:一种头戴式设备,包括:相机;显示器;传感器;连接端口,该连接端口用于接收连接器的端部;和处理器,该处理器被配置为:用该相机捕获图像;用该传感器检测状况;经由该连接端口和该连接器向电子设备传输指示该图像和该状况的信号,该电子设备被配置为显示该图像和与该状况对应的视觉特征。
条款C:一种头戴式设备,包括:相机;显示器;连接端口,该连接端口用于接收连接器的端部;和处理器,该处理器被配置为:用该相机捕获图像;经由该连接端口和该连接器向电子设备传输指示用于由该电子设备显示的该图像的第一信号;以及经由该连接端口和该连接器从该电子设备接收指示提供给该电子设备的用户输入的第二信号;在该显示器上输出与该用户输入对应的视觉特征。
上述条款中的一个或多个可包括下述特征中的一个或多个。应当注意,以下条款中的任一个可彼此以任何组合来组合,并被置于相应的独立条款中,例如,条款A、B或C。
条款1:该头戴式设备是第一头戴式设备,并且还包括:第一头部接合器;第一相机;第一麦克风;和第一扬声器;并且该电子设备是第二头戴式设备,并且还包括:第二头部接合器;第二相机;第二麦克风;和第二扬声器。
条款2:该信号还对应于该第一头戴式设备的该第一扬声器的第一输出;并且该第二头戴式设备被配置为基于该经修改的信号向该第二扬声器提供第二输出。
条款3:该信号基于该第一显示器的特性;并且该经修改的信号基于该第二显示器的特性。
条款4:该控制器被配置为检测该第一显示器的该特性和该第二显示器的该特性。
条款5:该经修改的信号相对于该信号具有不同的采样率。
条款6:该传感器包括触摸传感器。
条款7:该视觉特征在该图像上的位置对应于由该触摸传感器检测到的触摸位置。
条款8:该传感器包括眼睛跟踪传感器。
条款9:该视觉特征在该图像上的位置对应于由该眼睛跟踪传感器检测到的凝视位置。
条款10:该显示器被配置为基于该头戴式设备的取向来显示该图像的第一部分;并且该电子设备被配置为基于在该电子设备处接收到的用户输入来显示该图像的第二部分。
条款11:该电子设备是附加的头戴式设备,并且还包括:附加相机;和附加显示器。
如上所述,可在本文所述的方法中从各种来源采集信息。所采集的信息可包括唯一地识别或可用于联系或定位特定人员的个人信息数据。本公开认识到使用此类个人信息或其他数据可用于使用户受益。此类个人信息和/或数据的收集、分析、公开、传递、存储或其他用途可遵守既定的隐私政策和/或隐私惯例。用户可选择性地阻止使用或访问个人信息数据。可管理和/或最小化无意的或未授权的访问或使用的风险。
除非特别指出,否则以单数形式提及的元素并不意味着是唯一的,而是指一个或多个。例如,“一个”模块可指一个或多个模块。以“一个”,“一种”,“该”或“所述”为前缀的元素在没有进一步的限制的情况下不排除存在附加的相同元素。
标题和副标题(如果有的话)仅用于方便,并不限制本发明。“示例性”一词用于表示用作示例或说明。在使用术语“包括”、“具有”等的意义上,此类术语旨在以类似于术语“包含”的方式是包含性的,因为在用作权利要求中的过渡词时解释为包含。诸如“第一”和“第二”等的关系术语可用于将一个实体或动作与另一个实体或动作区分开,而不一定要求或暗示这些实体或动作之间的任何实际的此类关系或顺序。
短语诸如方面、该方面、另一方面、一些方面、一个或多个方面、具体实施、该具体实施、另一具体实施、一些具体实施、一个或多个具体实施、实施方案、该实施方案、另一实施方案、一些实施方案、一个或多个实施方案、构型、该构型、另一构型、一些构型、一个或多个构型、主题技术、公开、本公开、其他变型等等都是为了方便,并不意味着涉及这样的一个或多个短语的公开对于主题技术是必不可少的,或者此类公开适用于主题技术的所有构型。涉及此类一个或多个短语的公开可适用于所有配置或一个或多个配置。涉及此类一个或多个短语的公开可提供一个或多个示例。短语诸如方面或一些方面可指代一个或多个方面,反之亦然,并且这与其他前述短语类似地应用。
在一系列项目之前的短语“至少一个”,用术语“和”或“或”分开项目中的任一者,将列表作为整体修改而不是列表中的每个成员。短语“至少一个”不需要选择至少一个项目;相反,该短语允许包括任何一个项目中的至少一个和/或项目的任何组合中的至少一个和/或每个项目中的至少一个的含义。以举例的方式,短语“A、B和C中的至少一个”或“A、B或C中的至少一个”中的每个短语仅指A、仅指B或仅指C;A、B和C的任意组合;和/或A、B和C中的每一个中的至少一个。
应该理解,公开的步骤、操作或过程的具体顺序或层次是示例性方法的说明。除非另有明确说明,否则可理解的是,步骤、操作或过程的具体顺序或层次可以不同的顺序执行。步骤、操作或过程中的一些可同时执行。所附方法权利要求书(如果有的话)以示例顺序呈现各个步骤、操作或过程的元素,并不意味着限于所呈现的具体顺序或层次。这些可以串行、线性、并行或不同的顺序执行。应当理解,所描述的指令、操作和系统通常可一起集成在单个软件/硬件产品中,或者被封装到多个软件/硬件产品中。
在一个方面,术语“耦接”等可指代直接耦接。另一方面,术语“联接”等可指间接联接。
术语诸如顶部、底部、前部、后部、侧部、水平、竖直等是指任意的参照系,而不是指通常的重力参照系。因此,此类术语可在重力参考系中向上、向下、对角或水平延伸。
提供本公开是为了使本领域的技术人员能够实践本文所述的各个方面。在一些情况下,以框图形式示出了熟知的结构和部件,以便避免使本主题技术的概念模糊。本公开提供了本主题技术的各种示例,并且本主题技术不限于这些示例。这些方面的各种修改对于本领域技术人员将是显而易见的,并且这里描述的原理可应用于其他方面。
本领域的普通技术人员已知或稍后悉知的贯穿本公开描述的各个方面的元素的所有结构和功能等同物通过引用明确地并入本文,并且旨在被权利要求书所涵盖。此外,本文所公开的任何内容并非旨在提供给公众,而与该公开是否明确地被陈述在权利要求中无关。根据35U.S.C.§112第六段的规定,不需要解释任何权利要求元素,除非使用短语“方法用以”明确陈述了该元素,或者就方法权利要求而言,使用短语“步骤用以”陈述了该元素。
标题、背景、附图的简要说明、摘要和附图在此被结合到本公开中,并且被提供作为本公开的说明性示例,而不是作为限制性描述。认为它们不会被用来限制权利要求的范围或含义。此外,在详细描述中可看出,出于使本公开简化的目的,描述提供了例示性示例,并且各种特征在各种具体实施中被组合在一起。公开的方法不应被解释为反映所要求保护的主题需要比每个权利要求中明确记载的特征更多的特征的意图。相反,如权利要求所反映的,发明主题在于少于单个公开的构型或操作的所有特征。权利要求由此被并入到具体实施方式中,每个权利要求本身作为单独要求保护的主题。
权利要求不旨在限于本文所述的方面,而是要被赋予与权利要求的语言一致的全部范围,并且涵盖所有的法律等同物。尽管如此,这些权利要求都不包含不符合适用专利法要求的主题,也不应该以此类方式解释。
Claims (20)
1.一种系统,包括:
头戴式设备:
第一显示器;和
第一连接端口,所述第一连接端口被配置为输出与在所述
第一显示器上提供的第一图像对应的信号;
电子设备,所述电子设备包括:
第二显示器;和
第二连接端口;和
连接器,所述连接器包括:
第一端部,所述第一端部被配置为由所述头戴式设备的所述第一连接端口接收;
第二端部,所述第二端部被配置为由所述电子设备的所述第二连接端口接收;和
控制器,所述控制器被配置为从所述头戴式设备的所述第一连接端口接收所述信号并且在所述第二端部处向所述电子设备输出经修改的信号,其中,所述电子设备被配置为基于所述经修改的信号在所述第二显示器上提供第二图像。
2.根据权利要求1所述的头戴式设备,其中:
所述头戴式设备是第一头戴式设备,并且还包括:
第一头部接合器;
第一相机;
第一麦克风;和
第一扬声器;并且
所述电子设备是第二头戴式设备,并且还包括:
第二头部接合器;
第二相机;
第二麦克风;和
第二扬声器。
3.根据权利要求2所述的头戴式设备,其中:
所述信号还对应于所述第一头戴式设备的所述第一扬声器的第一输出;并且
所述第二头戴式设备被配置为基于所述经修改的信号向所述第二扬声器提供第二输出。
4.根据权利要求1所述的头戴式设备,其中:
所述信号基于所述第一显示器的特性;并且
所述经修改的信号基于所述第二显示器的特性。
5.根据权利要求4所述的头戴式设备,其中,所述控制器被配置为检测所述第一显示器的特性和所述第二显示器的特性。
6.根据权利要求1所述的头戴式设备,其中,所述经修改的信号相对于所述信号具有不同的采样率。
7.一种头戴式设备,所述头戴式设备包括:
相机;
显示器;
传感器;
连接端口,所述连接端口用于接收连接器的端部;和
处理器,所述处理器被配置为:
用所述相机捕获图像;
用所述传感器检测状况;
经由所述连接端口和所述连接器向电子设备传输指示所述图像和所述状况的信号,所述电子设备被配置为显示所述图像和与所述状况对应的视觉特征。
8.根据权利要求7所述的头戴式设备,其中,所述传感器包括触摸传感器。
9.根据权利要求8所述的头戴式设备,其中,所述视觉特征在所述图像上的位置对应于由所述触摸传感器检测到的触摸位置。
10.根据权利要求7所述的头戴式设备,其中,所述传感器包括眼睛跟踪传感器。
11.根据权利要求10所述的头戴式设备,其中,所述视觉特征在所述图像上的位置对应于由所述眼睛跟踪传感器检测到的凝视位置。
12.根据权利要求7所述的头戴式设备,其中:
所述显示器被配置为基于所述头戴式设备的取向,显示所述图像的第一部分;并且
所述电子设备被配置为基于在所述电子设备处接收到的用户输入,显示所述图像的第二部分。
13.根据权利要求7所述的头戴式设备,其中,所述电子设备是附加的头戴式设备,并且还包括:
附加相机;和
附加显示器。
14.一种头戴式设备,所述头戴式设备包括:
相机;
显示器;
连接端口,所述连接端口用于接收连接器的端部;和
处理器,所述处理器被配置为:
用所述相机捕获图像;
经由所述连接端口和所述连接器向电子设备传输指示用于由所述电子设备显示的所述图像的第一信号;以及
经由所述连接端口和所述连接器从所述电子设备接收指示提供给所述电子设备的用户输入的第二信号;
在所述显示器上输出与所述用户输入对应的视觉特征。
15.根据权利要求14所述的头戴式设备,其中:
所述显示器被配置为基于所述头戴式设备的取向,显示所述图像的第一部分;并且
所述电子设备被配置为基于在所述电子设备处接收到的用户输入,显示所述图像的第二部分。
16.根据权利要求14所述的头戴式设备,其中,所述电子设备被配置为用触摸传感器检测所述用户输入。
17.根据权利要求16所述的头戴式设备,其中,所述视觉特征在所述图像上的位置对应于由所述触摸传感器检测到的触摸位置。
18.根据权利要求14所述的头戴式设备,其中,所述电子设备是附加的头戴式设备,并且还包括:
附加相机;和
附加显示器。
19.根据权利要求18所述的头戴式设备,其中,所述附加的头戴式设备被配置为用眼睛跟踪传感器检测所述用户输入。
20.根据权利要求19所述的头戴式设备,其中,所述视觉特征在所述图像上的位置对应于由所述眼睛跟踪传感器检测到的凝视位置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063078814P | 2020-09-15 | 2020-09-15 | |
US63/078,814 | 2020-09-15 | ||
PCT/US2021/046671 WO2022060518A1 (en) | 2020-09-15 | 2021-08-19 | Head-mountable device and connector |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116670564A true CN116670564A (zh) | 2023-08-29 |
Family
ID=77711483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180076445.6A Pending CN116670564A (zh) | 2020-09-15 | 2021-08-19 | 头戴式设备和连接器 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11953690B2 (zh) |
CN (1) | CN116670564A (zh) |
WO (1) | WO2022060518A1 (zh) |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012160898A (ja) * | 2011-01-31 | 2012-08-23 | Brother Ind Ltd | 画像処理装置 |
EP2951811A4 (en) * | 2013-01-03 | 2016-08-17 | Meta Co | DIGITAL EYES FOR EXTRAMISSIVE SPATIAL IMAGING, PROCESSES AND SYSTEMS FOR VIRTUAL OR ENLARGED VISIBILITY, MANIPULATION, PRODUCTION OR INTERACTION WITH OBJECTS, MATERIALS, OR OTHER UNITS |
US10262462B2 (en) * | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
KR102122476B1 (ko) * | 2014-01-08 | 2020-06-12 | 삼성전자주식회사 | 화면의 회전을 컨트롤할 수 있는 전자 장치 및 방법 |
US10373342B1 (en) * | 2017-01-10 | 2019-08-06 | Lucasfilm Entertainment Company Ltd. | Content generation in an immersive environment |
RU2751981C1 (ru) * | 2018-03-28 | 2021-07-21 | Телефонактиеболагет Лм Эрикссон (Пабл) | Устанавливаемый на голове дисплей и способ снижения синдрома укачивания, вызванного зрительной иллюзией движения, в подключенном удаленном дисплее |
US10438719B1 (en) * | 2018-05-16 | 2019-10-08 | Amphenol East Asia Electronic Technology (Shen Zhen) Co., Ltd. | Active virtual reality cable |
CA3110798C (en) * | 2018-08-29 | 2024-01-30 | Elbit Systems Of America, Llc | Covert target acquisition with coded short-wave infrared glasses |
KR102716974B1 (ko) * | 2018-12-19 | 2024-10-15 | 삼성전자 주식회사 | 증강 장치를 제어하는 방법 및 이를 수행하는 전자 장치 |
JP2020141853A (ja) * | 2019-03-06 | 2020-09-10 | ソニー・オリンパスメディカルソリューションズ株式会社 | 画像処理装置、画像処理方法およびプログラム |
-
2021
- 2021-08-19 CN CN202180076445.6A patent/CN116670564A/zh active Pending
- 2021-08-19 WO PCT/US2021/046671 patent/WO2022060518A1/en active Application Filing
-
2023
- 2023-03-15 US US18/122,058 patent/US11953690B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2022060518A1 (en) | 2022-03-24 |
US11953690B2 (en) | 2024-04-09 |
US20230228999A1 (en) | 2023-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102705908B1 (ko) | 헤드 장착형 디바이스를 위한 모듈형 시스템 | |
US10417992B2 (en) | On-head detection with touch sensing and eye sensing | |
US11275250B2 (en) | Optical alignment for head-mountable device | |
US11287886B1 (en) | Systems for calibrating finger devices | |
US20170090557A1 (en) | Systems and Devices for Implementing a Side-Mounted Optical Sensor | |
US11137908B2 (en) | Keyboard operation with head-mounted device | |
US9223451B1 (en) | Active capacitive sensing on an HMD | |
US20210055367A1 (en) | Audio-based feedback for head-mountable device | |
US20230350633A1 (en) | Shared data and collaboration for head-mounted devices | |
CN116057451A (zh) | 改变显示器的设置的方法及电子装置 | |
US11175734B1 (en) | Wrist tracking devices | |
US20230229007A1 (en) | Fit detection for head-mountable devices | |
US20230305301A1 (en) | Head-mountable device with connectable accessories | |
CN209928142U (zh) | 头戴式设备 | |
US12078812B2 (en) | Head-mountable device for posture detection | |
US9535519B1 (en) | Smart housing for extending trackpad sensing | |
US11733526B1 (en) | Head-mountable device with convertible light seal element | |
CN116670564A (zh) | 头戴式设备和连接器 | |
US11714286B1 (en) | Accessory for head-mountable device | |
US20240094804A1 (en) | Wearable electronic devices for cooperative use | |
US12086299B1 (en) | Touch input for head-mountable devices | |
US20240064420A1 (en) | Cameras for multiple views | |
US20230336708A1 (en) | Calibration for head-mountable devices | |
CN117980805A (zh) | 模块化组件 | |
WO2023049048A2 (en) | Avatar generation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |