CN105704468A - 用于虚拟和现实场景的立体显示方法、装置及电子设备 - Google Patents
用于虚拟和现实场景的立体显示方法、装置及电子设备 Download PDFInfo
- Publication number
- CN105704468A CN105704468A CN201510546526.4A CN201510546526A CN105704468A CN 105704468 A CN105704468 A CN 105704468A CN 201510546526 A CN201510546526 A CN 201510546526A CN 105704468 A CN105704468 A CN 105704468A
- Authority
- CN
- China
- Prior art keywords
- matrix
- virtual scene
- user
- real
- observation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 78
- 239000011159 matrix material Substances 0.000 claims abstract description 387
- 230000009466 transformation Effects 0.000 claims description 48
- 230000000007 visual effect Effects 0.000 claims description 35
- 238000012545 processing Methods 0.000 claims description 32
- 230000001131 transforming effect Effects 0.000 claims description 29
- 238000009877 rendering Methods 0.000 claims description 22
- 238000001914 filtration Methods 0.000 claims description 21
- 230000001360 synchronised effect Effects 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 230000004048 modification Effects 0.000 claims description 5
- 238000012986 modification Methods 0.000 claims description 5
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 abstract description 15
- 210000003128 head Anatomy 0.000 description 185
- 230000008569 process Effects 0.000 description 6
- 238000013519 translation Methods 0.000 description 6
- 238000009499 grossing Methods 0.000 description 5
- 238000010276 construction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000002347 injection Methods 0.000 description 3
- 239000007924 injection Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 208000012886 Vertigo Diseases 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000243 solution Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 231100000889 vertigo Toxicity 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明提供一种用于虚拟和现实场景的立体显示方法、装置及电子设备,该显示方法包括:获取用户头部位置的实时跟踪数据;当用户的头部位置发生变化时,根据所述实时跟踪数据对虚拟场景的原观察矩阵或原投影矩阵进行变换,得到新的观察矩阵或新的投影矩阵;根据新的观察矩阵或新的投影矩阵,构建并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与用户头部位置变化后的观察视角同步。本发明实施例可用于3D显示设备中。
Description
技术领域
本发明涉及虚拟现实技术领域,特别涉及一种用于虚拟和现实场景的立体显示方法、装置及电子设备。
背景技术
虚拟与现实简称VR(VirtualReality),意指通过技术手段创造出一种逼真的虚拟的现实效果。目前,虚拟与现实设备已经逐渐成熟和完善,现已广泛应用在影视和游戏等领域,越来越多的用户开始选择虚拟与现实设备来体验3D(3维,3Dimensions)立体内容。
在用户通过虚拟与现实设备来体验3D立体内容时,为了让用户体验到非常逼真的现实效果,同步观察视角就变得非常重要,即,在用户改变头部的位置从而改变眼睛的观察视角时,用户所观看的3D立体内容的观察方位即虚拟场景的观察视角要随之变化,从而带给用户强烈的代入感和现实感。
现有技术中,大多数虚拟与现实设备是采用头戴式的方式来实现3D显示的,而且在同步观察视角时会给一部分用户带来不适,例如,眼睛不舒服等,从而对整个3D立体内容的体验造成影响。
发明内容
本发明的目的在于提供一种用于虚拟和现实场景的立体显示方法、装置及电子设备,提供了一种新的同步观察视角的方式。
为了达到上述目的,本发明实施例提供一种用于虚拟和现实场景的立体显示方法,包括:
跟踪用户的头部位置,获取用户头部位置的实时跟踪数据;
当用户的头部位置发生变化时,根据所述实时跟踪数据对虚拟场景的原观察矩阵或原投影矩阵进行变换,得到新的观察矩阵或新的投影矩阵;
根据所述新的观察矩阵或新的投影矩阵,构建并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与用户头部位置变化后的观察视角同步。
其中,
在所述根据所述实时跟踪数据,对虚拟场景的原观察矩阵或原投影矩阵进行变换前,所述方法还包括:
对所述实时跟踪数据进行平滑滤波处理,得到平滑滤波处理后的实时跟踪数据;
所述根据所述实时跟踪数据,对虚拟场景的原观察矩阵或原投影矩阵进行变换包括:
根据所述平滑滤波处理后的实时跟踪数据,对虚拟场景的原观察矩阵或原投影矩阵进行变换。
其中,
所述根据所述实时跟踪数据对虚拟场景的原观察矩阵进行变换,得到新的观察矩阵包括:
根据所述实时跟踪数据,确定用户头部的旋转矩阵;
根据所述用户头部的旋转矩阵、虚拟场景的视差偏转矩阵以及虚拟场景的原观察矩阵,确定新的观察矩阵。
其中,所述方法还包括:
根据预先配置或者根据用户输入的设置参数确定虚拟场景的视间距信息;
根据所述确定的视间距信息确定虚拟场景的视差偏转矩阵。
其中,
所述视差偏转矩阵包括第一视图视差偏转矩阵以及第二视图视差偏转矩阵;述新的观察矩阵包括第一视图观察矩阵和第二视图观察矩阵;
所述根据所述用户头部的旋转矩阵、虚拟场景的视差偏转矩阵以及虚拟场景的原观察矩阵,确定新的观察矩阵的步骤包括:
根据所述用户头部的旋转矩阵、虚拟场景的第一视图视差偏转矩阵以及虚拟场景的原观察矩阵,确定第一视图观察矩阵;以及
根据所述用户头部的旋转矩阵、虚拟场景的第二视图视差偏转矩阵以及虚拟场景的原观察矩阵,确定第二视图观察矩阵;
所述根据所述新的观察矩阵,构建并显示虚拟场景的立体图像的步骤包括:
利用所述第一视图观察矩阵渲染生成虚拟场景的第一视图,并利用所述第二视图观察矩阵渲染生成虚拟场景的第二视图;
根据渲染生成的所述第一视图和第二视图,构建并显示虚拟场景的立体图像。
其中,所述根据所述实时跟踪数据对虚拟场景的原投影矩阵进行变换,得到新的投影矩阵的步骤包括:
根据所述实时跟踪数据,确定虚拟场景的立体图像的投影位置偏移信息;
根据所述确定的投影位置偏移信息和所述虚拟场景的原投影矩阵,构建新的投影矩阵。
其中,所述根据所述实时跟踪数据,确定虚拟场景的立体图像的投影位置偏移信息包括:
根据所述实时跟踪数据和所述原投影矩阵的视点距近投影平面的距离,确定虚拟场景的立体图像的投影位置偏移信息。
其中,
所述新的投影矩阵包括第一视图投影矩阵和第二视图投影矩阵;其中,
所述根据所述确定的投影位置偏移信息和所述虚拟场景的原投影矩阵,构建新的投影矩阵包括:
根据所述确定的投影位置偏移信息和所述原投影矩阵,构建第一视图投影矩阵和第二视图投影矩阵;
所述根据所述新的投影矩阵,构建并显示虚拟场景的立体图像的步骤包括:
利用所述第一视图投影矩阵渲染生成虚拟场景的第三视图,并利用第二视图投影矩阵渲染生成虚拟场景的第四视图;
根据渲染生成的所述第三视图和第四视图,构建并显示虚拟场景的立体图像。
本发明实施例还提供一种用于虚拟和现实场景的立体显示装置,包括:
第一跟踪获取模块,用于跟踪用户的头部位置,获取用户头部位置的实时跟踪数据;
处理模块,用于当用户的头部位置发生变化时,根据所述实时跟踪数据对虚拟场景的原观察矩阵或原投影矩阵进行变换,得到新的观察矩阵或投影矩阵;
立体显示模块,用于根据所述新的观察矩阵或投影矩阵,构建并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与用户头部位置变化后的观察视角同步。
本发明实施例还提供一种用于虚拟和现实场景的立体显示方法,包括:
跟踪用户的头部位置,获取用户头部位置的实时跟踪数据;
根据用户头部位置的实时跟踪数据,确定用于虚拟场景的模拟鼠标的移动量;
根据所述模拟鼠标的移动量,修改所述模拟鼠标的位置信息,以使实现根据修改后的所述模拟鼠标的位置信息生成并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与用户头部位置变化后的观察视角同步。
其中,所述根据用户头部位置的实时跟踪数据,确定虚拟场景的模拟鼠标的移动量的步骤包括:
根据所述实时跟踪数据,确定所述用户头部的实时转动角度;
根据所述用户头部的实时转动角度,确定用于虚拟场景的模拟鼠标的移动量。
其中,所述根据所述实时跟踪数据,确定所述用户头部的实时转动角度的步骤包括:
获取用户头部的当前帧的跟踪数据和该用户头部前一帧的跟踪数据;
获取当前帧的跟踪数据和前一帧的跟踪数据的差值,并由所述差值确定所述实时转动角度。
其中,所述根据所述用户头部的实时转动角度,确定用于虚拟场景的模拟鼠标的移动量的步骤包括:
将所述用户头部的实时转动角度与一预设转换系数相乘,得到用于虚拟场景的所述模拟鼠标的移动量。
本发明实施例还提供一种用于虚拟和现实场景的立体显示装置,包括:
第二跟踪获取模块,用于跟踪用户的头部位置,获取用户头部位置的实时跟踪数据;
确定模块,用于根据所述用户头部位置的实时跟踪数据,确定用于虚拟场景的模拟鼠标的移动量;
位置修改模块,用于根据所述模拟鼠标的移动量,修改所述模拟鼠标的位置信息,以使实现根据修改后的所述模拟鼠标的位置信息生成并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与用户头部位置变化后的观察视角同步。
本发明实施例还提供一种用于虚拟和现实场景的电子设备,包括:
壳体、处理器、存储器、显示器、电路板和电源电路,其中,电路板安置在壳体围成的空间内部,处理器和存储器设置在电路板上;电源电路,用于为电子设备的各个电路或器件供电;存储器用于存储可执行程序代码;处理器通过读取存储器中存储的可执行程序代码来运行与可执行程序代码对应的程序,以用于执行以下步骤:
跟踪用户的头部位置,获取用户头部位置的实时跟踪数据;
当用户的头部位置发生变化时,根据所述实时跟踪数据对虚拟场景的原观察矩阵或原投影矩阵进行变换,得到新的观察矩阵或新的投影矩阵;
根据所述新的观察矩阵或投影矩阵,构建并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与用户头部位置变化后的观察视角同步。
本发明的上述技术方案至少具有如下有益效果:
本发明实施例的用于虚拟和现实场景的立体显示方法、装置及电子设备中,通过跟踪用户的头部位置,在用户头部位置发生变化时,利用用户头部位置的实时跟踪数据对虚拟场景的观察矩阵、投影矩阵或模拟鼠标的位置信息进行变换或修改,从而利用变换或修改后的观察矩阵、投影矩阵或模拟鼠标的位置信息构建虚拟场景的立体图像,从而实现虚拟场景的观察视角与用户头部位置变化后的观察视角的同步,而且,能够在一定程度上减轻用户在使用虚拟与现实设备时在同步观察视角时所产生的不适感,优化用户体验。
附图说明
图1表示本发明实施例一提供的用于虚拟与现实场景的立体显示方法的流程图;
图2表示本发明提供的观察视角的同步方法中用户头部位置的跟踪数据的示意图;
图3表示本发明实施例二提供的用于虚拟与现实场景的立体显示装置的组成结构图;
图4表示本发明实施例三提供的用于虚拟和现实场景的立体显示方法的流程图;
图5表示本发明实施例四提供的用于虚拟和现实场景的立体显示方法的流程图;
图6表示本发明实施例五提供的用于虚拟和现实场景的立体显示方法的流程图;
图7表示本发明实施例五提供的用于虚拟和现实场景的立体显示方法中投影示意图;
图8表示本发明实施例六提供的用于虚拟和现实场景的立体显示装置的组成结构图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。
本发明针对现有技术中虚拟和现实场景同步观察视角时会给一部分用户带来不适,影响用户对3D立体内容的体验的问题,提供一种用于虚拟和现实场景的立体显示方法、装置及电子设备,通过跟踪用户的头部位置,在用户头部位置发生变化时,利用用户头部位置的实时跟踪数据对虚拟场景的观察矩阵、投影矩阵或模拟鼠标的位置信息进行变换或修改,从而利用修改后的观察矩阵、投影矩阵或模拟鼠标的位置信息构建虚拟场景的立体图像,进而在一定程度上减轻用户在使用虚拟与现实设备时在同步观察视角时所产生的不适感。此外,本发明实施例所提供了三种不同的用于虚拟和现实场景的立体显示方法来实现虚拟场景下的观察视角与现实用户头部位置变化后的观察视角的同步,可以针对不同的显示场景使用,因此应用范围非常广泛。
首先需要说明的是,本发明的实施例中假设虚拟场景中和真实场景中用户的头部位置的观察转动角度是相同的,并且位置的偏移在结合标尺(Scale)后也是相同的。结合上面的假设,本发明的实施例中,根据真实场景中用户头部位置的跟踪数据,变换虚拟场景中观察的方位,即同步观察视角。
还需要说明的是,本发明实施例可以应用在穿戴式的3D显示场景,还可以应用在裸眼3D显示场景,本发明对此不做限定。
以下对本发明实施例提供的用于虚拟和现实场景的立体显示方法、装置和电子设备进行详细说明。
如图1所示,本发明的实施例一提供一种用于虚拟和现实场景的立体显示方法,
步骤11,跟踪用户的头部位置,获取用户头部位置的实时跟踪数据。
可选的,如果用户是穿戴式的方式观看3D内容,可通过速度传感器或者加速度传感器等传感器件跟踪用户的头部位置从而获取用户头部位置的实时跟踪数据,如果是裸眼3D场景,可通过摄像头跟踪用户的头部位置从而获取用户头部位置的实时跟踪数据,本领域技术人员可以任意选择。
具体的,用户头部位置的实时跟踪数据可以包括头部在三维空间中的实时转动角度,可通过预先建立一三维坐标系,从而获取用户头部相对于X轴的旋转角度、相对于Y轴的旋转角度以及相对于Z轴的旋转角度来共同表示用户头部的实时转动角度。当然,用户头部位置的实时跟踪数据还可包括头部在三维空间的实时平移距离,与实时转动角度类似,在此不做详述。
举例说明,如图2所示,用户头部的实时跟踪数据包括头部在三维空间中的转动角度(Pitch,Yaw,Roll);其中,Pitch:用户头部相对于x轴的转动角度;Yaw:用户头部相对于y轴的转动角度;Roll:用户头部相对于z轴的转动角度。
步骤12,根据用户头部位置的实时跟踪数据,确定用于虚拟场景的模拟鼠标的移动量。
本实施例提供的立体显示方法可以适用于支持鼠标转动视角的应用场景中,即鼠标的移动可以控制偏转视角。将用户头部位置的实时跟踪数据与鼠标移动量绑定,则可以根据实时跟踪数据,例如用户头部的实时转动角度确定鼠标的移动量。
具体的,其中鼠标可以为虚拟鼠标也可以为实际的鼠标,但是基于不影响3D内容整体画面感的前提,本申请中所指的鼠标一般为虚拟鼠标,即用于虚拟场景中的模拟鼠标。该模拟鼠标是与真实场景的实际鼠标相对应的,实际鼠标移动,该模拟鼠标相应移动,3D内容随模拟鼠标的移动而移动。可以理解的是,模拟鼠标可以是存在显示于虚拟场景中的,也可以是用于控制虚拟场景的视角改变的后台数据。本实施例中,将用户头部位置的改变与模拟鼠标的位置关联,从而改变虚拟场景的视角。
步骤13,根据所述模拟鼠标的移动量,修改所述模拟鼠标的位置信息,以实现根据修改后的所述模拟鼠标的位置信息生成并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与用户头部位置变化后的观察视角同步。
具体的,得到模拟鼠标的移动量后,修改模拟鼠标的位置信息,从而使得应用程序(例如3D游戏等)控制所述模拟鼠标移动,则游戏画面会由于模拟鼠标的移动而变换,从而达到游戏画面与用户头部的转动同步的目的。
本发明的实施例一提供的立体显示方法中观察视角的同步方法即利用模拟鼠标进行偏转视角的方法,该方法适用于支持鼠标转动视角的应用,例如游戏应用,虽然此方式会影响正常鼠标的操作,但是在游戏的视角转换中,不影响整个管线和流程,更贴近与原游戏本身操控。
优选的,为了避免头部位置数据的突然波动而造成观察视角的突变,进而使得用户产生眩晕感,本发明的具体实施例中,在所述根据所述实时跟踪数据,确定用于虚拟场景的模拟鼠标的移动量前,所述方法还包括:
对所述实时跟踪数据进行平滑滤波处理,得到平滑滤波处理后的实时跟踪数据;
所述根据所述实时跟踪数据,确定用于虚拟场景的模拟鼠标的移动量包括:
根据所述平滑滤波处理后的实时跟踪数据,确定用于虚拟场景的模拟鼠标的移动量。
这样,可以在后续构建并显示立体图像从而改变观察视角时,能够在一定程度上减弱用户的不适感,提升用户体验。
具体的,本发明提供的实施例一中步骤12可以包括:
步骤121,根据所述实时跟踪数据,确定所述用户头部的实时转动角度。
可以理解的是,在很多场景中,例如第一人称射击游戏中,只关注头部关于X轴和Y轴的旋转变换,则可直接根据X轴数据和Y轴数据确定用户头部的实时转动角度。
步骤122,根据所述用户头部的实时转动角度,确定用于虚拟场景的模拟鼠标的移动量。
进一步的,本发明提供的实施例一中步骤11包括:
步骤111,获取用户头部的当前帧的跟踪数据和该用户头部前一帧的跟踪数据;
例如,即取出当前帧的头部跟踪数据中的Pitch(头部绕x轴旋转角度),Yaw(头部绕y轴旋转角度),作为基准值;再获取前一帧的Pitch,Yaw。根据当前帧的头部跟踪数据和前一帧的跟踪数据能够准确的确定用户头部的转动角度。
步骤112,获取当前帧的跟踪数据和前一帧的跟踪数据的差值,并由所述差值确定所述实时转动角度。
具体的,将当前帧的Pitch(头部绕x轴旋转角度),Yaw(头部绕y轴旋转角度)和前一帧的Pitch(头部绕x轴旋转角度),Yaw(头部绕y轴旋转角度)分别作差,得到ΔPitch,ΔYaw。该ΔPitch,ΔYaw分别为用户头部沿X轴和沿Y轴的实时转动角度。
进一步的,本发明的实施例一中步骤122包括:
步骤1221,将所述用户头部的实时转动角度与一预设转换系数相乘,得到用于虚拟场景的所述模拟鼠标的移动量。
即将上述步骤112得到的ΔPitch,ΔYaw分别乘以一预设转换系数,该预设转换系数为用来转换头部转动角度和鼠标偏移量的转换因子,从而得到Δx,Δy;从而通过Δx,Δy,改变鼠标位置:鼠标.x+=Δx;鼠标.y+=Δy;即将模拟鼠标沿X轴移动Δx,沿Y轴移动Δy,即可达到偏转视角的目的,从而实现用户的观察视角的同步。
为了更好的实现上述目的,如图3所示,本发明的实施例二还提供一种用于虚拟和现实场景的立体显示装置,包括:
第二跟踪获取模块21,用于跟踪用户的头部位置,获取用户头部位置的实时跟踪数据;
确定模块22,用于根据用户头部位置的实时跟踪数据,确定用于虚拟场景的模拟鼠标的移动量;
位置修改模块23,用于根据所述模拟鼠标的移动量,修改所述模拟鼠标的位置信息,以使实现根据修改后的所述模拟鼠标的位置信息生成并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与用户头部位置变化后的观察视角同步。
优选的,本发明提供的实施例二中还可包括:
平滑处理模块,用于对所述实时跟踪数据进行平滑滤波处理,得到平滑滤波处理后的实时跟踪数据;
则,确定模块22用于根据所述平滑滤波处理后的实时跟踪数据,确定用于虚拟场景的模拟鼠标的移动量。
本发明提供的实施例二中确定模块22可包括:
第一确定子模块,用于根据所述实时跟踪数据,确定所述用户头部的实时转动角度;
第二确定子模块,用于根据所述用户头部的实时转动角度,确定用于虚拟场景的模拟鼠标的移动量。
本发明提供的实施例二中第一确定子模块可包括:
数据获取模块,用于获取用户头部的当前帧的跟踪数据和该用户头部前一帧的跟踪数据;
角度获取模块,用于获取当前帧的跟踪数据和前一帧的跟踪数据的差值,并由所述差值确定所述实时转动角度。
本发明的实施例二中第二确定子模块可包括:
移动量确定模块,用于将所述用户头部的实时转动角度与一预设转换系数相乘,得到用于虚拟场景的所述模拟鼠标的移动量。
本发明的实施例二提供的用于虚拟和现实场景的立体显示装置中,利用模拟鼠标的偏转进行观察视角的偏转,从而实现观察视角的同步,优化了用户体验;需要说明的是,该实施例二提供的用于虚拟和现实场景的立体显示装置是应用上述用于虚拟和现实场景的立体显示方法的同步装置,则上述用于虚拟和现实场景的立体显示方法的所有实施例均适用于该同步装置,且均能达到相同或相似的有益效果。
为了更好的实现上述目的,如图4所示,本发明的实施例三还提供一种用于虚拟和现实场景的立体显示方法,包括:
步骤31,跟踪用户的头部位置,获取用户头部位置的实时跟踪数据。
可选的,如果用户是穿戴式的方式观看3D内容,可通过速度传感器或者加速度传感器等传感器件跟踪用户的头部位置从而获取用户头部位置的实时跟踪数据,如果是裸眼3D场景,可通过摄像头跟踪用户的头部位置从而获取用户头部位置的实时跟踪数据,本领域技术人员可以任意选择。
具体的,用户头部位置的实时跟踪数据可以包括头部在三维空间中的实时转动角度,可通过预先建立一三维坐标系,从而获取用户头部相对于X轴的旋转角度、相对于Y轴的旋转角度以及相对于Z轴的旋转角度来共同表示用户头部的实时转动角度。当然,用户头部位置的实时跟踪数据还可包括头部在三维空间的实时平移距离,与实时转动角度类似,在此不做详述。
举例说明,如图2所示,用户头部的实时跟踪数据包括头部在三维空间中的转动角度(Pitch,Yaw,Roll);其中,Pitch:用户头部相对于x轴的转动角度;Yaw:用户头部相对于y轴的转动角度;Roll:用户头部相对于z轴的转动角度。
步骤32,当用户的头部位置发生变化时,根据所述实时跟踪数据对虚拟场景的原观察矩阵或原投影矩阵进行变换,得到新的观察矩阵或新的投影矩阵。
从原理上来讲,变换原观察矩阵的方式是保持观察场景和物体不动,而改变摄像机(代表用户的眼睛)的观察位置和角度来实现观察视角同步的方式,而变换原投影矩阵的方式是保持摄像机的位置不动,而改变视景体位置来实现观察视角同步的方式。
具体的,根据用户头部位置发生变化时所获取的实时跟踪数据,对虚拟场景的原观察矩阵或原投影矩阵进行变换,该实时跟踪数据可以表征用户头部位置的变化。
需要强调的是,本发明实施例中所述的观察矩阵或投影矩阵,是图形图像处理领域的常规概念,本领域技术人员可以直接毫无疑义的确定,本发明对此不做详述。
步骤33,根据所述新的观察矩阵或新的投影矩阵,构建并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与用户头部位置变化后的观察视角同步。
本实施例的用于虚拟和现实场景的立体显示方法,通过跟踪用户的头部位置,在用户头部位置发生变化时,利用用户头部位置的实时跟踪数据对虚拟场景的观察矩阵或投影矩阵进行变换,利用变换或修改后的观察矩阵、投影矩阵构建虚拟场景的立体图像,从而实现虚拟场景的观察视角与用户头部位置变化后的观察视角的同步,能够在一定程度上减轻用户在使用虚拟与现实设备时在同步观察视角时所产生的不适感。
较佳的,为了避免头部位置数据的突然波动而造成观察视角的突变,进而使得用户产生眩晕感,本发明的具体实施例中在所述根据所述实时跟踪数据,对虚拟场景的原观察矩阵或原投影矩阵进行变换前,所述方法还包括:
对所述实时跟踪数据进行平滑滤波处理,得到平滑滤波处理后的实时跟踪数据。从而使得步骤,32具体包括:
步骤321,根据所述平滑滤波处理后的实时跟踪数据,对虚拟场景的原观察矩阵或原投影矩阵进行变换。
这样,可以在后续构建并显示立体图像从而改变观察视角时,能够在一定程度上减弱用户的不适感,提升用户体验。
下面分别从对原观察矩阵和原投影矩阵的两方面处理进行具体描述。
具体实施例四
如图5所示,本发明的具体实施例四提供的立体显示方法包括:
步骤41,跟踪用户的头部位置,获取用户头部位置的实时跟踪数据。
具体的,如图2所示,用户头部的实时跟踪数据与实施例一中的实时跟踪数据一致,在此不重复描述。本实施例四中根据实时跟踪数据,改变观察矩阵,从而得到新观察矩阵。
步骤42,当用户的头部位置发生变化时,根据所述实时跟踪数据对虚拟场景的原观察矩阵进行变换,得到新的观察矩阵。
本实施例四中通过改变观察矩阵来进行视角偏转,从而实现观察视角的同步。其中,原观察矩阵也可称为当前观察矩阵,是指在用户头部位置变化时当前的立体图像所应用的观察矩阵,即观察视角还没改变时立体图像所应用的观察矩阵。在本发明的一个实施例中,虚拟场景的原观察矩阵可通过拦截技术获取,关于立体应用场景中的拦截技术不是本申请的重要内容,在此不详细描述。
步骤43,根据所述新的观察矩阵,构建并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与用户头部位置变化后的观察视角同步。
具体的,在本发明的一个实施例中,得到新观察矩阵后,通过注入技术将新的观察矩阵注入到3D应用的成像流程中,从而达到绘制3D立体内容且实现观察视角同步的目的。
本实施例提供的用于虚拟与显示场景的立体显示方法中,通过改变观察矩阵进行偏转视角的方法适用于在视角转动后,仍然能够正确的观察,没有信息缺失的场景下。该方式改变视角更加科学和准确,特别适用于立体内容即立体图像的场景范围较小的情况。
具体的,本发明的实施例四中上述步骤42包括:
步骤421,根据所述实时跟踪数据,确定用户头部的旋转矩阵;
具体的,基于用户头部位置的实时跟踪数据,例如用户头部的旋转角度,确定用户头部的旋转矩阵分别为X轴的旋转矩阵、Y轴的旋转矩阵以及Z轴的旋转矩阵。需要说明的是,该类旋转矩阵的格式均为预先设定的,本发明中将得到的用户头部的实时跟踪数据进行预定处理后填充到预先设定的矩阵中的预定位置从而构成本实施例需要的用户头部的旋转矩阵。
步骤422,根据所述用户头部的旋转矩阵、虚拟场景的视差偏转矩阵以及虚拟场景的原观察矩阵,确定新的观察矩阵。
从立体成像的原理上来讲,为了构建立体图像,需要首先构建具有水平视差的两幅左右眼图像,为生成视差图像,需移动摄像机位置,即将摄像机在同一水平面上进行偏移,产生左右相机,分别对应人的左眼和右眼。左右相机之间的间距称为视间距。视差偏转矩阵根据视间距确定。
用户头部的旋转矩阵实际为用户的视角偏转矩阵,即观察矩阵的变换包括视角偏转和视差偏转;从而根据视角偏转矩阵、虚拟场景的视差偏转矩阵以及当前虚拟场景的观察矩阵即可得到新的观察矩阵。且新的观察矩阵是相对于新的观察视角而言的。
具体的,本发明提供的实施例四中的上述虚拟场景的视差偏转矩阵的生成步骤包括:
步骤423,根据预先配置或者根据用户输入的设置参数确定虚拟场景的视间距信息;
步骤424,根据所述确定的视间距信息确定虚拟场景的视差偏转矩阵。
可选的,视间距信息sep可以由系统预先设定也可开放给用户自行设定,在此不限定其具体值。其中,sep可认为是左右相机之间的距离,用来表示人的左右眼之间的距离。需要说明的是,上述视差偏差矩阵也为预先设定的格式,本申请需将视间距信息进行预定处理后填充至预先设定的格式中从而构成视差偏转矩阵。
进一步具体的,本发明的实施例四中,所述视差偏转矩阵包括第一视图视差偏转矩阵以及第二视图视差偏转矩阵,也可称为左视图视差偏转矩阵和右视图视差偏转矩阵;所述新的观察矩阵包括第一视图观察矩阵和第二视图观察矩阵,也可称为左视图观察矩阵和右视图观察矩阵;则实施例四中步骤422具体包括:
步骤4221,根据所述用户头部的旋转矩阵、虚拟场景的第一视图视差偏转矩阵以及虚拟场景的原观察矩阵,确定第一视图观察矩阵;以及
步骤4222,根据所述用户头部的旋转矩阵、虚拟场景的第二视图视差偏转矩阵以及虚拟场景的原观察矩阵,确定第二视图观察矩阵;
进一步的,本发明的实施例四中上述步骤43包括:
步骤431,利用所述第一视图观察矩阵渲染生成虚拟场景的第一视图,并利用所述第二视图观察矩阵渲染生成虚拟场景的第二视图;
即分别生成左右眼视差图像。
步骤432,根据渲染生成的所述第一视图和第二视图,构建并显示虚拟场景的立体图像。
具体的,在本发明的一个实施例中,得到新观察矩阵后,利用注入技术将新观察矩阵注入到3D应用的流程中,从而达到绘制3D立体内容且实现观察视角同步的目的。
具体的,本发明的实施例二得到两个新的观察矩阵,则需将两个新的观察矩阵分别注入到应用流程中,从而实现观察视角的同步;即分别根据第一视图观察矩阵和第二视图观察矩阵渲染生成第一视图和第二视图,根据第一视图和第二视图并结合立体显示技术,生成虚拟场景的立体图像并在裸眼立体显示屏上进行显示。
具体的,下面结合一具体实施例对本发明的实施例四的执行步骤进行详细描述:
首先通过拦截技术,获取当前虚拟场景的原观察矩阵V;
然后根据头部跟踪数据Pitch,Yaw,Roll,则可以得到头部分别关于x,y,z轴的旋转矩阵:
进而可以得到用户头部的旋转矩阵VRotation:
VRotation=RotationPitch*RotationYaw*RotationRoll
当然,在很多场景(例如第一人称射击游戏)中,我们只关注头部关于x轴和y轴的旋转变换,这样只需要令关于z轴旋转矩阵为单位矩阵:
RotationRoll=E
进一步的,观察矩阵的变换包含:视差偏转变换矩阵Vsep和视角偏转变换矩阵(即用户头部的旋转矩阵)VRotation,其中视差偏转矩阵Vsep是指可以理解为在生成视差图像时,需对摄像机分别进行偏移±sep/2(即向第一方向移动sep/2得到左摄像机,向第二方向移动sep/2得到右摄像机),则左右摄像机的视差偏转矩阵分别为:
既有视差偏转变换Vsep为:
则变换后的观察矩阵V′
V′=VRotation*Vsep*V
具体的,变换后第一视图观察矩阵V′=VRotation*Vsep_R*V;相应的,变换后第二视图观察矩阵V′=VRotation*Vsep_L*V。将两个V′分别注入应用程序中,使得利用变换后的观察矩阵生成虚拟场景的立体图像,从而达到偏转视角的目的,实现观察视角的同步。
具体实施例五
如图6所示,本发明实施例五还提供一种用于虚拟和现实场景的立体显示方法,包括:
步骤51,跟踪用户的头部位置,获取用户头部位置的实时跟踪数据;
具体的,如图2所示,该实施例五中所指的用户头部的实时跟踪数据与实施例一中所指的用户头部的实时跟踪数据一致,在此不重复描述。
步骤52,当用户的头部位置发生变化时,根据所述实时跟踪数据对虚拟场景的原投影矩阵进行变换,得到新的投影矩阵;
其中,原投影矩阵也可称为当前投影矩阵,是指在用户头部位置变化时当前的立体图像所应用的投影矩阵,即观察视角还没改变时立体图像所应用的投影矩阵。
步骤53,根据所述新的投影矩阵,构建并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与现实用户头部位置变化后的观察视角同步。
从原理上讲,本发明的实施例五中的方法具体是通过摄像机的观察位置不变,而改变视景体(图像)的位置及角度的方式来实现观察视角的偏转,从而实现观察视角的同步,优化用户体验。
具体的,本发明的实施例五中步骤52包括:
步骤521,根据所述实时跟踪数据,确定虚拟场景的立体图像的投影位置偏移信息;
步骤522,根据所述确定的投影位置偏移信息和所述虚拟场景的原投影矩阵,构建新的投影矩阵。
与实施例三中获取原观察矩阵的方式一致,本发明的实施例五通过拦截技术获取原投影矩阵,其具体的过程不作详细描述。
进一步的,本发明的实施例五中上述步骤521包括:
步骤5211,根据所述实时跟踪数据和所述原投影矩阵的视点距近投影平面的距离,确定虚拟场景的立体图像的投影位置偏移信息。
如图7所示,本发明的实施例五中,投影位置的偏移包括位置的偏移和角度的偏移,即根据用户头部的实时跟踪数据计算角度的偏移,根据原投影矩阵的视点(如图7中摄像机的位置)距当前近投影平面的距离(如图7中所示的Znear)计算位置的偏移。
例如用户头部向左(上)偏转,可以将视景体(图像)的L,R(T,B)向左(上)同时偏移DH(DV),来改变投影的位置和角度,此时向左的偏移量DH为:DH=Znear*tan(Pitch),向上的偏移量DV为:DV=Znear*tan(Yaw);
其中有Znear为原投影矩阵P的视点到近投影平面距离,Pitch、Yaw为用户头部跟踪关于x轴和y轴旋转数据(弧度)。
进一步的,本发明的实施例五中所述新的投影矩阵包括第一视图投影矩阵和第二视图投影矩阵,也可称为左视图投影矩阵和右视图投影矩阵;其中本发明的实施例五中上述步骤522包括:
步骤5221,根据所述确定的投影位置偏移信息和所述原投影矩阵,构建第一视图投影矩阵和第二视图投影矩阵。
将当前所述图像的投影位置移动上述计算得到的偏移量,即可得到偏移后的图像的投影位置。需要说明的是,该实施例五中所指的投影矩阵与实施例四中所指的观察矩阵一致,均为按照预先设定的格式进行填充即可得到本实施例五需要的投影矩阵,在此不重复描述。
进一步的,本发明的实施例五中步骤53具体包括:
步骤531,利用所述第一视图投影矩阵渲染生成虚拟场景的第三视图,并利用第二视图投影矩阵渲染生成虚拟场景的第四视图;
步骤532,根据渲染生成的所述第三视图和第四视图,构建并显示虚拟场景的立体图像。本发明实施例五中同样利用注入技术将偏移后图像的投影矩阵注入到应用程序中,实现对观察视角的偏转,从而达到同步偏转视角的目的。
具体的,下面结合一具体实施例对本发明的实施例五提供的立体显示方法进行详细描述:
例如用户头部向左(上)偏转,可以将视景体(图像)的L,R(T,B)向左(上)同时偏移DH(DV),来改变投影的位置和角度,此时向左的偏移量DH为:DH=Znear*tan(Pitch),向上的偏移量DV为:DV=Znear*tan(Yaw);
其中有Znear为原投影矩阵P的视点到近投影平面距离,Pitch,Yaw为用户头部跟踪关于x轴和y轴旋转数据(弧度)。
视景体(图像的投影)变换后的结果:
以OpenGL为例,如图7所示,left(左),right(右),bottom(下),top(上)定义了裁剪面大小,而Znear和Zfar定义了从摄像机到视锥远近两个裁剪面的距离。由这六个参数可以定义出六个裁剪面构成的锥体,这个锥体通常被称之为视锥体或视景体。
设L=left,R=right,B=bottom,T=top,Znear=near,Zfar=far,则投影矩阵可表述为:
则改变后的投影矩阵P‘为
可将改变后的投影矩阵P‘注入应用程序中,即利用P‘构建虚拟场景的立体图像,从而达到偏转视角的目的,实现观察视角的同步,优化用户体验。
但需要说明的是,在本发明的一个实施例中,在为应用构建虚拟场景的立体图像时,可首先通过拦截技术获取应用本身的投影矩阵,在此基础上,在用户的观察视角发生改变后,以拦截获取的投影矩阵作为原投影矩阵,进行接下来的变换。
为了更好的实现上述目的,如图8所示,本发明的实施例六提供一种用于虚拟和现实场景的立体显示装置,包括:
第一跟踪获取模块61,用于跟踪用户的头部位置,获取用户头部位置的实时跟踪数据;
处理模块62,用于当用户的头部位置发生变化时,根据所述实时跟踪数据对虚拟场景的原观察矩阵或原投影矩阵进行变换,得到新的观察矩阵或投影矩阵;
立体显示模块63,用于根据所述新的观察矩阵或新的投影矩阵,构建并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与用户头部位置变化后的观察视角同步。
具体的,本发明的实施例六中上述立体显示装置还包括:
第一跟踪获取子模块,用于对所述所述实时跟踪数据进行平滑滤波处理,得到平滑滤波处理后的实时跟踪数据。相应的,处理模块62具体包括:
处理单元,用于根据所述平滑滤波处理后的实时跟踪数据,对虚拟场景的原观察矩阵或原投影矩阵进行变换。
具体的,本发明的实施例六中,处理模块62包括:
第一确定子模块,用于根据所述实时跟踪数据,确定用户头部的旋转矩阵;
第二确定子模块,用于根据所述用户头部的旋转矩阵、虚拟场景的视差偏转矩阵以及虚拟场景的原观察矩阵,确定新的观察矩阵。
具体的,本发明的实施例六中,所述立体显示装置还包括:
参数设置模块,用于根据预先配置或者根据用户输入的设置参数确定虚拟场景的视间距信息;
视差确定模块,用于根据所述确定的视间距信息确定虚拟场景的视差偏转矩阵。
具体的,本发明的实施例六中,所述视差偏转矩阵包括第一视图视差偏转矩阵以及第二视图视差偏转矩阵;述新的观察矩阵包括第一视图观察矩阵和第二视图观察矩阵;
上述第二确定子模块包括:
第一确定单元,用于根据所述用户头部的旋转矩阵、虚拟场景的第一视图视差偏转矩阵以及虚拟场景的原观察矩阵,确定第一视图观察矩阵;以及
第二确定单元,用于根据所述用户头部的旋转矩阵、虚拟场景的第二视图视差偏转矩阵以及虚拟场景的原观察矩阵,确定第二视图观察矩阵;
相应的立体显示模块63包括:
第一显示子模块,用于利用所述第一视图观察矩阵渲染生成虚拟场景的第一视图,并利用所述第二视图观察矩阵渲染生成虚拟场景的第二视图;
第二显示子模块,用于根据渲染生成的所述第一视图和第二视图,构建并显示虚拟场景的立体图像。
具体的,本发明的实施例六中,处理模块62具体包括:
第三确定子模块,用于根据所述所述实时跟踪数据,确定虚拟场景的立体图像的投影位置偏移信息;
构建模块,用于根据所述确定的投影位置偏移信息和所述虚拟场景的原投影矩阵,构建新的投影矩阵。
具体的,本发明的实施例六中,所述第三确定子模块包括:
第三确定单元,用于根据所述实时跟踪数据和所述原投影矩阵的视点距近投影平面的距离,确定虚拟场景的立体图像的投影位置偏移信息。
具体的,本发明的实施例六中,所述新的投影矩阵包括第一视图投影矩阵和第二视图投影矩阵;其中,
上述构建模块包括:
构建单元,用于根据所述确定的投影位置偏移信息和所述原投影矩阵,构建第一视图投影矩阵和第二视图投影矩阵;
相应的,上述立体显示模块63包括:
第三显示子模块,用于利用所述第一视图投影矩阵渲染生成虚拟场景的第三视图,并利用第二视图投影矩阵渲染生成虚拟场景的第四视图;
第四显示子模块,用于根据渲染生成的所述第三视图和第四视图,构建并显示虚拟场景的立体图像。
本发明的实施例六提供的用于虚拟和现实场景的立体显示装置中,分别为通过改变原观察矩阵和原投影矩阵的方式进行观察视角的偏转,从而实现观察视角的同步,优化了用户体验;需要说明的是,该实施例六提供的用于虚拟和现实场景的立体显示装置是应用上述用于虚拟和现实场景的立体显示方法的同步装置,则上述用于虚拟和现实场景的立体显示方法的所有实施例均适用于该用于虚拟和现实场景的立体显示装置,且均能达到相同或相似的有益效果。
但是,在很多情况下(例如OpenGL1.0)通过拦截技术,只能获取到当前的整体变换矩阵(是将世界坐标变换、观察坐标变换以及投影变换相乘得到的结果),这样我们就不能直接对世界坐标变换、观察坐标变换以及投影变换中的单个变换进行直接修改。
已知,原变换矩阵为M=P*V*W,其中W为世界坐标变换,V为观察坐标变换,P为投影变换。偏图的整个过程,需要对观察坐标变换V,以及投影矩阵P进行修改。有
M‘=P’*V‘*W
其中有V‘为改变后的观察坐标变换,P’为改变后的投影坐标变换:
V′=VRotation*Vsep*V
其中,VRotation为视角偏转矩阵,Vsep为视差偏转矩阵。
接着有,
M‘=P’*VRotation*Vsep*V*W
=(P’*VRotation*Vsep*P-1)*P*V*W
=(P’*Vsep*Vrotation*P-1)*M
其中,若不在该矩阵变换中偏转视角,则Vrotation=E,为单位矩阵。
则
ML=(PL*Vsep_L*Vrotation*P-1)*M
MR=(PR*Vsep_R*Vrotation*P-1)*M
其中,ML和MR分别为偏转后左右相机的变换矩阵,Vsep_L和Vsep_R分别为左右相机的视差偏转矩阵,PL和PR分别为偏转后左右相机的投影矩阵。在已知投影矩阵的且可以拦截到变换矩阵的M的前提下,就可以通过根据视差偏转矩阵和头部的旋转矩阵,得到变换后的变换矩阵。
也就是说,本发明实施例还提供了一种立体显示方法,包括:
跟踪用户的头部位置,获取用户头部位置的实时跟踪数据;
当用户的头部位置发生变化时,根据所述实时跟踪数据对虚拟场景的原变换矩阵进行变换,得到新的变换矩阵;
根据所述新的变换矩阵,构建并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与用户头部位置变化后的观察视角同步。
具体的,在本发明的一个实施例中,根据所述实时跟踪数据,确定用户头部的旋转矩阵Vrotation,利用Vrotation、视差偏转矩阵Vsep,和已知的投影矩阵P和它的逆矩阵P-1,得到新的变换矩阵,进而利用新的变换矩阵构建立体图像。
ML=(PL*Vsep_L*Vrotation*P-1)*M
MR=(PR*Vsep_R*Vrotation*P-1)*M
可以理解的是,上述实施例中使用旋转矩阵进行示例说明,但是本发明不限于此,也可以根据用户头部进行平移时,构建用户头部的平移矩阵,进而利用用户头部的平移矩阵得到新的变换矩阵。本实施例中,旋转矩阵和平移矩阵均可称为位移矩阵。
而在本发明的另一个实施例中,根据所述实时跟踪数据,确定投影位置偏移信息,根据投影位置偏移信息,确定新的投影矩阵,进而同样利用上述公式,其中,Vrotation=E,为单位矩阵,通过新的投影矩阵,原投影矩阵的逆矩阵,视差偏转矩阵和原变换矩阵,得到新的变换矩阵。
关于如何得到头部的旋转矩阵,视差偏转矩阵、新的投影矩阵等均与前述实施例相同,这里不再详述。
相应的,本发明实施例还提供了一种立体显示装置,包括:
跟踪模块,用于跟踪用户的头部位置,获取用户头部位置的实时跟踪数据;
变换模块,用于当用户的头部位置发生变化时,根据所述实时跟踪数据对虚拟场景的原变换矩阵进行变换,得到新的变换矩阵;
构建模块,用于根据所述新的变换矩阵,构建并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与用户头部位置变化后的观察视角同步。
具体的,变换模块用于:
当用户的头部位置发生变化时,根据所述实时跟踪数据,确定用户头部的旋转矩阵;
根据用户头部的旋转矩阵、虚拟场景的视差偏转矩和虚拟场景的原变换矩阵,确定新的变换矩阵。
关于各模块的具体执行行为请参见方法实施例,这里不再赘述。
为了更好的实现上述目的,本发明实施例七还提供一种用于虚拟和现实场景的电子设备,包括:
壳体、处理器、存储器、显示器、电路板和电源电路,其中,电路板安置在壳体围成的空间内部,处理器和存储器设置在电路板上;电源电路,用于为电子设备的各个电路或器件供电;存储器用于存储可执行程序代码;处理器通过读取存储器中存储的可执行程序代码来运行与可执行程序代码对应的程序,以用于执行以下步骤:
跟踪用户的头部位置,获取用户头部位置的实时跟踪数据;
当用户的头部位置发生变化时,根据所述实时跟踪数据对虚拟场景的原观察矩阵或原投影矩阵进行变换,得到新的观察矩阵或新的投影矩阵;
根据所述新的观察矩阵或投影矩阵,构建并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与用户头部位置变化后的观察视角同步。
该电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等;
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如iPad;
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器(例如iPod),掌上游戏机,电子书,以及智能玩具和便携式车载导航设备;
(4)其他具有数据交互功能的电子装置。
需要说明的是,本发明实施例七提供的电子设备是能够应用上述实施例三、实施例四以及实施例五提供的用于虚拟与现实场景的立体显示方法的电子设备,则上述立体显示方法的所有实施例及其有益效果均适用于该电子设备。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (18)
1.一种用于虚拟和现实场景的立体显示方法,其特征在于,包括:
跟踪用户的头部位置,获取用户头部位置的实时跟踪数据;
当用户的头部位置发生变化时,根据所述实时跟踪数据对虚拟场景的原观察矩阵或原投影矩阵进行变换,得到新的观察矩阵或新的投影矩阵;
根据所述新的观察矩阵或新的投影矩阵,构建并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与用户头部位置变化后的观察视角同步。
2.根据权利要求1所述的立体显示方法,其特征在于,
在所述根据所述实时跟踪数据,对虚拟场景的原观察矩阵或原投影矩阵进行变换前,所述方法还包括:
对所述实时跟踪数据进行平滑滤波处理,得到平滑滤波处理后的实时跟踪数据;
所述根据所述实时跟踪数据,对虚拟场景的原观察矩阵或原投影矩阵进行变换包括:
根据所述平滑滤波处理后的实时跟踪数据,对虚拟场景的原观察矩阵或原投影矩阵进行变换。
3.根据权利要求1所述的立体显示方法,其特征在于,
所述根据所述实时跟踪数据对虚拟场景的原观察矩阵进行变换,得到新的观察矩阵包括:
根据所述实时跟踪数据,确定用户头部的旋转矩阵;
根据所述用户头部的旋转矩阵、虚拟场景的视差偏转矩阵以及虚拟场景的原观察矩阵,确定新的观察矩阵。
4.根据权利要求3所述的立体显示方法,其特征在于,所述方法还包括:
根据预先配置或者根据用户输入的设置参数确定虚拟场景的视间距信息;
根据所述确定的视间距信息确定虚拟场景的视差偏转矩阵。
5.根据权利要求3或4所述的立体显示方法,其特征在于,
所述视差偏转矩阵包括第一视图视差偏转矩阵以及第二视图视差偏转矩阵;述新的观察矩阵包括第一视图观察矩阵和第二视图观察矩阵;
所述根据所述用户头部的旋转矩阵、虚拟场景的视差偏转矩阵以及虚拟场景的原观察矩阵,确定新的观察矩阵的步骤包括:
根据所述用户头部的旋转矩阵、虚拟场景的第一视图视差偏转矩阵以及虚拟场景的原观察矩阵,确定第一视图观察矩阵;以及
根据所述用户头部的旋转矩阵、虚拟场景的第二视图视差偏转矩阵以及虚拟场景的原观察矩阵,确定第二视图观察矩阵;
所述根据所述新的观察矩阵,构建并显示虚拟场景的立体图像的步骤包括:
利用所述第一视图观察矩阵渲染生成虚拟场景的第一视图,并利用所述第二视图观察矩阵渲染生成虚拟场景的第二视图;
根据渲染生成的所述第一视图和第二视图,构建并显示虚拟场景的立体图像。
6.根据权利要求1所述的立体显示方法,其特征在于,所述根据所述实时跟踪数据对虚拟场景的原投影矩阵进行变换,得到新的投影矩阵的步骤包括:
根据所述实时跟踪数据,确定虚拟场景的立体图像的投影位置偏移信息;
根据所述确定的投影位置偏移信息和所述虚拟场景的原投影矩阵,构建新的投影矩阵。
7.根据权利要求6所述的立体显示方法,其特征在于,所述根据所述实时跟踪数据,确定虚拟场景的立体图像的投影位置偏移信息包括:
根据所述实时跟踪数据和所述原投影矩阵的视点距近投影平面的距离,确定虚拟场景的立体图像的投影位置偏移信息。
8.根据权利要求7所述的立体显示方法,其特征在于,
所述新的投影矩阵包括第一视图投影矩阵和第二视图投影矩阵;其中,
所述根据所述确定的投影位置偏移信息和所述虚拟场景的原投影矩阵,构建新的投影矩阵包括:
根据所述确定的投影位置偏移信息和所述原投影矩阵,构建第一视图投影矩阵和第二视图投影矩阵;
所述根据所述新的投影矩阵,构建并显示虚拟场景的立体图像的步骤包括:
利用所述第一视图投影矩阵渲染生成虚拟场景的第三视图,并利用第二视图投影矩阵渲染生成虚拟场景的第四视图;
根据渲染生成的所述第三视图和第四视图,构建并显示虚拟场景的立体图像。
9.根据权利要求7所述的立体显示方法,其特征在于,所述根据所述新的投影矩阵,构建并显示虚拟场景的立体图像的步骤包括:
根据所述新的投影矩阵、原投影矩阵的逆矩阵、视差偏转矩阵和原变换矩阵,得到新的变换矩阵;
根据所述新的变换矩阵,构建并显示虚拟场景的立体图像。
10.一种用于虚拟和现实场景的立体显示装置,其特征在于,包括:
第一跟踪获取模块,用于跟踪用户的头部位置,获取用户头部位置的实时跟踪数据;
处理模块,用于当用户的头部位置发生变化时,根据所述实时跟踪数据对虚拟场景的原观察矩阵或原投影矩阵进行变换,得到新的观察矩阵或投影矩阵;
立体显示模块,用于根据所述新的观察矩阵或新的投影矩阵,构建并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与用户头部位置变化后的观察视角同步。
11.一种用于虚拟和现实场景的立体显示方法,其特征在于,包括:
跟踪用户的头部位置,获取用户头部位置的实时跟踪数据;
当用户的头部位置发生变化时,根据所述实时跟踪数据,确定用于虚拟场景的模拟鼠标的移动量;
根据所述模拟鼠标的移动量,修改所述模拟鼠标的位置信息,以实现根据修改后的所述模拟鼠标的位置信息生成并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与用户头部位置变化后的观察视角同步。
12.根据权利要求1所述的立体显示方法,其特征在于,
在所述根据所述实时跟踪数据,确定用于虚拟场景的模拟鼠标的移动量前,所述方法还包括:
对所述实时跟踪数据进行平滑滤波处理,得到平滑滤波处理后的实时跟踪数据;
所述根据所述实时跟踪数据,确定用于虚拟场景的模拟鼠标的移动量包括:
根据所述平滑滤波处理后的实时跟踪数据,确定用于虚拟场景的模拟鼠标的移动量。
13.根据权利要求11或12所述的立体显示方法,其特征在于,所述根据用户头部位置的实时跟踪数据,确定虚拟场景的模拟鼠标的移动量的步骤包括:
根据所述实时跟踪数据,确定所述用户头部的实时转动角度;
根据所述用户头部的实时转动角度,确定用于虚拟场景的模拟鼠标的移动量。
14.根据权利要求13所述的立体显示方法,其特征在于,所述根据所述实时跟踪数据,确定所述用户头部的实时转动角度的步骤包括:
获取用户头部的当前帧的跟踪数据和该用户头部前一帧的跟踪数据;
获取当前帧的跟踪数据和前一帧的跟踪数据的差值,并由所述差值确定所述实时转动角度。
15.根据权利要求13所述的立体显示方法,其特征在于,所述根据所述用户头部的实时转动角度,确定用于虚拟场景的模拟鼠标的移动量的步骤包括:
将所述用户头部的实时转动角度与一预设转换系数相乘,得到用于虚拟场景的所述模拟鼠标的移动量。
16.一种用于虚拟和现实场景的立体显示装置,其特征在于,包括:
第二跟踪获取模块,用于跟踪用户的头部位置,获取用户头部位置的实时跟踪数据;
确定模块,用于根据所述用户头部位置的实时跟踪数据,确定用于虚拟场景的模拟鼠标的移动量;
位置修改模块,用于根据所述模拟鼠标的移动量,修改所述模拟鼠标的位置信息,以使实现根据修改后的所述模拟鼠标的位置信息生成并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与用户头部位置变化后的观察视角同步。
17.一种用于虚拟和现实场景的立体显示方法,其特征在于,包括:
跟踪用户的头部位置,获取用户头部位置的实时跟踪数据;
当用户的头部位置发生变化时,根据所述实时跟踪数据,确定用户头部的位移矩阵;
根据用户头部的位移矩阵、虚拟场景的视差偏转矩和虚拟场景的原变换矩阵,确定新的变换矩阵;
根据所述新的变换矩阵,构建并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与用户头部位置变化后的观察视角同步。
18.一种用于虚拟和现实场景的电子设备,其特征在于,包括:
壳体、处理器、存储器、显示器、电路板和电源电路,其中,电路板安置在壳体围成的空间内部,处理器和存储器设置在电路板上;电源电路,用于为电子设备的各个电路或器件供电;存储器用于存储可执行程序代码;处理器通过读取存储器中存储的可执行程序代码来运行与可执行程序代码对应的程序,以用于执行以下步骤:
跟踪用户的头部位置,获取用户头部位置的实时跟踪数据;
当用户的头部位置发生变化时,根据所述实时跟踪数据对虚拟场景的原观察矩阵或原投影矩阵进行变换,得到新的观察矩阵或新的投影矩阵;
根据所述新的观察矩阵或投影矩阵,构建并显示虚拟场景的立体图像,从而对虚拟场景的观察视角进行变换,实现虚拟场景下的观察视角与用户头部位置变化后的观察视角同步。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510546526.4A CN105704468B (zh) | 2015-08-31 | 2015-08-31 | 用于虚拟和现实场景的立体显示方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510546526.4A CN105704468B (zh) | 2015-08-31 | 2015-08-31 | 用于虚拟和现实场景的立体显示方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105704468A true CN105704468A (zh) | 2016-06-22 |
CN105704468B CN105704468B (zh) | 2017-07-18 |
Family
ID=56228055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510546526.4A Expired - Fee Related CN105704468B (zh) | 2015-08-31 | 2015-08-31 | 用于虚拟和现实场景的立体显示方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105704468B (zh) |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105915877A (zh) * | 2015-12-27 | 2016-08-31 | 乐视致新电子科技(天津)有限公司 | 一种三维视频的自由观影方法及设备 |
CN106445157A (zh) * | 2016-09-30 | 2017-02-22 | 珠海市魅族科技有限公司 | 一种画面显示方向调整的方法以及装置 |
CN106454311A (zh) * | 2016-09-29 | 2017-02-22 | 北京利亚德视频技术有限公司 | 一种led三维成像系统及方法 |
CN106488205A (zh) * | 2016-11-17 | 2017-03-08 | 四川长虹电器股份有限公司 | 一种自动实现图像拼接融合的投影装置及方法 |
CN106502427A (zh) * | 2016-12-15 | 2017-03-15 | 北京国承万通信息科技有限公司 | 虚拟现实系统及其场景呈现方法 |
CN106598514A (zh) * | 2016-12-01 | 2017-04-26 | 惠州Tcl移动通信有限公司 | 一种终端设备中切换虚拟现实模式的方法及系统 |
CN106648077A (zh) * | 2016-11-30 | 2017-05-10 | 南京航空航天大学 | 基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统 |
CN106708259A (zh) * | 2016-12-01 | 2017-05-24 | 福建网龙计算机网络信息技术有限公司 | 一种vr视频的定位方法及系统 |
CN106780759A (zh) * | 2016-12-09 | 2017-05-31 | 深圳创维-Rgb电子有限公司 | 基于图片构建场景立体全景图的方法、装置及vr系统 |
CN106873767A (zh) * | 2016-12-30 | 2017-06-20 | 深圳超多维科技有限公司 | 一种虚拟现实应用的运行控制方法和装置 |
CN107158709A (zh) * | 2017-05-16 | 2017-09-15 | 杭州乐见科技有限公司 | 一种基于游戏引导运动的方法和设备 |
CN107333121A (zh) * | 2017-06-27 | 2017-11-07 | 山东大学 | 曲面屏幕上移动视点的沉浸式立体渲染投影系统及其方法 |
CN107918482A (zh) * | 2016-10-08 | 2018-04-17 | 天津锋时互动科技有限公司深圳分公司 | 沉浸式vr系统中避免过度刺激的方法与系统 |
CN107977082A (zh) * | 2017-12-19 | 2018-05-01 | 亮风台(上海)信息科技有限公司 | 一种用于呈现ar信息的方法及系统 |
CN108181993A (zh) * | 2018-01-26 | 2018-06-19 | 成都科木信息技术有限公司 | 用于增强现实设备的场景绘制方法 |
CN108181994A (zh) * | 2018-01-26 | 2018-06-19 | 成都科木信息技术有限公司 | 用于ar头盔的人机交互方法 |
CN109426334A (zh) * | 2017-08-23 | 2019-03-05 | 北京京东尚科信息技术有限公司 | 信息显示方法和装置 |
CN109725728A (zh) * | 2018-12-29 | 2019-05-07 | 三星电子(中国)研发中心 | 一种ar设备的显示修正方法和装置 |
CN109985385A (zh) * | 2018-12-06 | 2019-07-09 | 派视觉虚拟现实(深圳)软件技术有限公司 | 一种游戏设备及其游戏角色的控制方法和装置 |
CN110007796A (zh) * | 2019-03-25 | 2019-07-12 | 联想(北京)有限公司 | 电子设备及信息处理方法 |
CN110119199A (zh) * | 2018-02-07 | 2019-08-13 | 宏达国际电子股份有限公司 | 实时渲染影像的追踪系统、方法及非暂态电脑可读取媒体 |
CN110166764A (zh) * | 2018-02-14 | 2019-08-23 | 阿里巴巴集团控股有限公司 | 虚拟现实vr直播中的视角同步方法及装置 |
CN110442229A (zh) * | 2018-05-04 | 2019-11-12 | 脸谱科技有限责任公司 | 虚拟现实环境中的显示重定向 |
CN111031198A (zh) * | 2018-10-09 | 2020-04-17 | 任志忠 | 一种实时电影生产技术 |
CN111278519A (zh) * | 2017-09-08 | 2020-06-12 | 索尼互动娱乐股份有限公司 | 来自配套机器人或装置的空间和用户感知的第二屏幕投影 |
CN111629242A (zh) * | 2020-05-27 | 2020-09-04 | 腾讯科技(深圳)有限公司 | 一种图像渲染方法、装置、系统、设备及存储介质 |
WO2020259682A1 (zh) * | 2019-06-28 | 2020-12-30 | 上海交通大学 | 基于三维点云的初始视角控制和呈现方法及系统 |
CN112945222A (zh) * | 2021-01-27 | 2021-06-11 | 杭州钱航船舶修造有限公司 | 基于视场方向的船舶辅助驾驶眼镜图像融合方法及系统 |
CN114023129A (zh) * | 2021-10-28 | 2022-02-08 | 中国人民解放军63983部队 | 一种工程机械模拟训练器的视景模拟系统及方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1892288A (zh) * | 2005-07-05 | 2007-01-10 | 三星Sdi株式会社 | 立体图像显示设备 |
US20110248987A1 (en) * | 2010-04-08 | 2011-10-13 | Disney Enterprises, Inc. | Interactive three dimensional displays on handheld devices |
CN202067213U (zh) * | 2011-05-19 | 2011-12-07 | 上海科睿展览展示工程科技有限公司 | 交互式立体图像系统 |
CN102789313A (zh) * | 2012-03-19 | 2012-11-21 | 乾行讯科(北京)科技有限公司 | 一种用户交互系统和方法 |
US20150077323A1 (en) * | 2013-09-17 | 2015-03-19 | Amazon Technologies, Inc. | Dynamic object tracking for user interfaces |
CN104857704A (zh) * | 2015-06-11 | 2015-08-26 | 苏州百源软件设计有限公司 | 可穿戴虚拟现实运动头盔及可穿戴虚拟动作游戏系统 |
-
2015
- 2015-08-31 CN CN201510546526.4A patent/CN105704468B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1892288A (zh) * | 2005-07-05 | 2007-01-10 | 三星Sdi株式会社 | 立体图像显示设备 |
US20110248987A1 (en) * | 2010-04-08 | 2011-10-13 | Disney Enterprises, Inc. | Interactive three dimensional displays on handheld devices |
CN202067213U (zh) * | 2011-05-19 | 2011-12-07 | 上海科睿展览展示工程科技有限公司 | 交互式立体图像系统 |
CN102789313A (zh) * | 2012-03-19 | 2012-11-21 | 乾行讯科(北京)科技有限公司 | 一种用户交互系统和方法 |
US20150077323A1 (en) * | 2013-09-17 | 2015-03-19 | Amazon Technologies, Inc. | Dynamic object tracking for user interfaces |
CN104857704A (zh) * | 2015-06-11 | 2015-08-26 | 苏州百源软件设计有限公司 | 可穿戴虚拟现实运动头盔及可穿戴虚拟动作游戏系统 |
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105915877A (zh) * | 2015-12-27 | 2016-08-31 | 乐视致新电子科技(天津)有限公司 | 一种三维视频的自由观影方法及设备 |
CN106454311A (zh) * | 2016-09-29 | 2017-02-22 | 北京利亚德视频技术有限公司 | 一种led三维成像系统及方法 |
CN106454311B (zh) * | 2016-09-29 | 2019-09-27 | 北京德火新媒体技术有限公司 | 一种led三维成像系统及方法 |
CN106445157A (zh) * | 2016-09-30 | 2017-02-22 | 珠海市魅族科技有限公司 | 一种画面显示方向调整的方法以及装置 |
CN106445157B (zh) * | 2016-09-30 | 2020-08-07 | 珠海市魅族科技有限公司 | 一种画面显示方向调整的方法以及装置 |
CN107918482B (zh) * | 2016-10-08 | 2023-12-12 | 深圳思蓝智创科技有限公司 | 沉浸式vr系统中避免过度刺激的方法与系统 |
CN107918482A (zh) * | 2016-10-08 | 2018-04-17 | 天津锋时互动科技有限公司深圳分公司 | 沉浸式vr系统中避免过度刺激的方法与系统 |
CN106488205A (zh) * | 2016-11-17 | 2017-03-08 | 四川长虹电器股份有限公司 | 一种自动实现图像拼接融合的投影装置及方法 |
CN106648077A (zh) * | 2016-11-30 | 2017-05-10 | 南京航空航天大学 | 基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统 |
CN106708259A (zh) * | 2016-12-01 | 2017-05-24 | 福建网龙计算机网络信息技术有限公司 | 一种vr视频的定位方法及系统 |
CN106598514B (zh) * | 2016-12-01 | 2020-06-09 | 惠州Tcl移动通信有限公司 | 一种终端设备中切换虚拟现实模式的方法及系统 |
CN106598514A (zh) * | 2016-12-01 | 2017-04-26 | 惠州Tcl移动通信有限公司 | 一种终端设备中切换虚拟现实模式的方法及系统 |
CN106708259B (zh) * | 2016-12-01 | 2019-06-25 | 福建网龙计算机网络信息技术有限公司 | 一种vr视频的定位方法及系统 |
CN106780759A (zh) * | 2016-12-09 | 2017-05-31 | 深圳创维-Rgb电子有限公司 | 基于图片构建场景立体全景图的方法、装置及vr系统 |
CN106502427B (zh) * | 2016-12-15 | 2023-12-01 | 北京国承万通信息科技有限公司 | 虚拟现实系统及其场景呈现方法 |
CN106502427A (zh) * | 2016-12-15 | 2017-03-15 | 北京国承万通信息科技有限公司 | 虚拟现实系统及其场景呈现方法 |
CN106873767A (zh) * | 2016-12-30 | 2017-06-20 | 深圳超多维科技有限公司 | 一种虚拟现实应用的运行控制方法和装置 |
CN107158709A (zh) * | 2017-05-16 | 2017-09-15 | 杭州乐见科技有限公司 | 一种基于游戏引导运动的方法和设备 |
CN107333121A (zh) * | 2017-06-27 | 2017-11-07 | 山东大学 | 曲面屏幕上移动视点的沉浸式立体渲染投影系统及其方法 |
CN109426334A (zh) * | 2017-08-23 | 2019-03-05 | 北京京东尚科信息技术有限公司 | 信息显示方法和装置 |
CN111278519A (zh) * | 2017-09-08 | 2020-06-12 | 索尼互动娱乐股份有限公司 | 来自配套机器人或装置的空间和用户感知的第二屏幕投影 |
CN111278519B (zh) * | 2017-09-08 | 2021-07-06 | 索尼互动娱乐股份有限公司 | 来自配套机器人或装置的空间和用户感知的第二屏幕投影 |
CN107977082A (zh) * | 2017-12-19 | 2018-05-01 | 亮风台(上海)信息科技有限公司 | 一种用于呈现ar信息的方法及系统 |
CN108181993A (zh) * | 2018-01-26 | 2018-06-19 | 成都科木信息技术有限公司 | 用于增强现实设备的场景绘制方法 |
CN108181994A (zh) * | 2018-01-26 | 2018-06-19 | 成都科木信息技术有限公司 | 用于ar头盔的人机交互方法 |
CN110119199A (zh) * | 2018-02-07 | 2019-08-13 | 宏达国际电子股份有限公司 | 实时渲染影像的追踪系统、方法及非暂态电脑可读取媒体 |
CN110119199B (zh) * | 2018-02-07 | 2022-05-10 | 宏达国际电子股份有限公司 | 实时渲染影像的追踪系统、方法及非暂态电脑可读取媒体 |
US11290573B2 (en) | 2018-02-14 | 2022-03-29 | Alibaba Group Holding Limited | Method and apparatus for synchronizing viewing angles in virtual reality live streaming |
CN110166764A (zh) * | 2018-02-14 | 2019-08-23 | 阿里巴巴集团控股有限公司 | 虚拟现实vr直播中的视角同步方法及装置 |
CN110442229A (zh) * | 2018-05-04 | 2019-11-12 | 脸谱科技有限责任公司 | 虚拟现实环境中的显示重定向 |
CN111031198A (zh) * | 2018-10-09 | 2020-04-17 | 任志忠 | 一种实时电影生产技术 |
CN109985385A (zh) * | 2018-12-06 | 2019-07-09 | 派视觉虚拟现实(深圳)软件技术有限公司 | 一种游戏设备及其游戏角色的控制方法和装置 |
CN109985385B (zh) * | 2018-12-06 | 2022-08-05 | 派视觉虚拟现实(深圳)软件技术有限公司 | 一种游戏设备及其游戏角色的控制方法和装置 |
CN109725728A (zh) * | 2018-12-29 | 2019-05-07 | 三星电子(中国)研发中心 | 一种ar设备的显示修正方法和装置 |
CN110007796A (zh) * | 2019-03-25 | 2019-07-12 | 联想(北京)有限公司 | 电子设备及信息处理方法 |
US11402948B2 (en) | 2019-03-25 | 2022-08-02 | Lenovo (Beijing) Co., Ltd. | Electronic device and information processing method |
WO2020259682A1 (zh) * | 2019-06-28 | 2020-12-30 | 上海交通大学 | 基于三维点云的初始视角控制和呈现方法及系统 |
US11836882B2 (en) | 2019-06-28 | 2023-12-05 | Shanghai Jiao Tong University | Three-dimensional point cloud-based initial viewing angle control and presentation method and system |
CN111629242B (zh) * | 2020-05-27 | 2022-04-08 | 腾讯科技(深圳)有限公司 | 一种图像渲染方法、装置、系统、设备及存储介质 |
CN111629242A (zh) * | 2020-05-27 | 2020-09-04 | 腾讯科技(深圳)有限公司 | 一种图像渲染方法、装置、系统、设备及存储介质 |
CN112945222A (zh) * | 2021-01-27 | 2021-06-11 | 杭州钱航船舶修造有限公司 | 基于视场方向的船舶辅助驾驶眼镜图像融合方法及系统 |
CN114023129A (zh) * | 2021-10-28 | 2022-02-08 | 中国人民解放军63983部队 | 一种工程机械模拟训练器的视景模拟系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105704468B (zh) | 2017-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105704468B (zh) | 用于虚拟和现实场景的立体显示方法、装置及电子设备 | |
CN105704478B (zh) | 用于虚拟和现实场景的立体显示方法、装置及电子设备 | |
CN106251403B (zh) | 一种虚拟立体场景实现的方法、装置和系统 | |
US20050264559A1 (en) | Multi-plane horizontal perspective hands-on simulator | |
US20110216160A1 (en) | System and method for creating pseudo holographic displays on viewer position aware devices | |
US9460555B2 (en) | System and method for three-dimensional visualization of geographical data | |
JP5572647B2 (ja) | 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法 | |
CN106375748A (zh) | 立体虚拟现实全景视图拼接方法、装置及电子设备 | |
CN106688231A (zh) | 立体图像记录和回放 | |
US20050219240A1 (en) | Horizontal perspective hands-on simulator | |
CN109598796A (zh) | 将真实场景与虚拟物体进行3d融合显示的方法和装置 | |
JP2005295004A (ja) | 立体画像処理方法および立体画像処理装置 | |
US20120293549A1 (en) | Computer-readable storage medium having information processing program stored therein, information processing apparatus, information processing system, and information processing method | |
CN108833877B (zh) | 图像处理方法及装置、计算机装置及可读存储介质 | |
WO2005098517A2 (en) | Horizontal perspective hand-on simulator | |
US20140132706A1 (en) | Image generation method, image display method, storage medium storing image generation program, image generation system, and image display device | |
US20140132705A1 (en) | Image generation method, image display method, storage medium storing image generation program, image generation system, and image display device | |
US20130057574A1 (en) | Storage medium recorded with program, information processing apparatus, information processing system, and information processing method | |
CN104216533B (zh) | 一种基于DirectX9的头戴式虚拟现实显示器 | |
US20190295324A1 (en) | Optimized content sharing interaction using a mixed reality environment | |
CN106598250A (zh) | 一种vr显示方法、装置和电子设备 | |
WO2017062730A1 (en) | Presentation of a virtual reality scene from a series of images | |
CN108022276A (zh) | 一种立体动画呈现方法、装置以及电子设备 | |
CN104240281A (zh) | 一种基于Unity3D引擎的虚拟现实头戴式设备 | |
US20050248566A1 (en) | Horizontal perspective hands-on simulator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20180726 Address after: 518054 Room 201, building A, 1 front Bay Road, Shenzhen Qianhai cooperation zone, Shenzhen, Guangdong Patentee after: SUPERD Co.,Ltd. Address before: 518053 H-1 Tung 101, overseas Chinese town, Nanshan District, Shenzhen, Guangdong. Patentee before: SHENZHEN SUPER PERFECT OPTICS Ltd. |
|
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170718 |