CN106325521B - 测试虚拟现实头显设备软件的方法及装置 - Google Patents
测试虚拟现实头显设备软件的方法及装置 Download PDFInfo
- Publication number
- CN106325521B CN106325521B CN201610798359.7A CN201610798359A CN106325521B CN 106325521 B CN106325521 B CN 106325521B CN 201610798359 A CN201610798359 A CN 201610798359A CN 106325521 B CN106325521 B CN 106325521B
- Authority
- CN
- China
- Prior art keywords
- eye
- characteristic point
- image
- eye image
- virtual reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012360 testing method Methods 0.000 title claims abstract description 164
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000010191 image analysis Methods 0.000 claims abstract description 25
- 241000208340 Araliaceae Species 0.000 claims 2
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims 2
- 235000003140 Panax quinquefolius Nutrition 0.000 claims 2
- 235000008434 ginseng Nutrition 0.000 claims 2
- 210000003128 head Anatomy 0.000 description 122
- 238000005516 engineering process Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 16
- 210000004556 brain Anatomy 0.000 description 10
- 238000004891 communication Methods 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000005094 computer simulation Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000011800 void material Substances 0.000 description 2
- KLDZYURQCUYZBL-UHFFFAOYSA-N 2-[3-[(2-hydroxyphenyl)methylideneamino]propyliminomethyl]phenol Chemical compound OC1=CC=CC=C1C=NCCCN=CC1=CC=CC=C1O KLDZYURQCUYZBL-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 201000001098 delayed sleep phase syndrome Diseases 0.000 description 1
- 208000033921 delayed sleep phase type circadian rhythm sleep disease Diseases 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000012812 general test Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000012092 media component Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 210000001202 rhombencephalon Anatomy 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000013522 software testing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/144—Processing image signals for flicker reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/324—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本公开是关于测试虚拟现实头显设备软件的方法及装置。该方法包括:对获取到的测试图像对应的一对左眼图像和右眼图像进行图像分析,获取多组特征点位置,其中每组的左眼特征点和右眼特征点具有相同的预设颜色值,预设颜色值包括测试图像中具有唯一性的颜色值;根据每组特征点位置,确定左眼特征点在左眼图像中的第一相对位置与右眼特征点在右眼图像中的第一相对位置之间的差异,并据此确定虚拟现实头显设备软件生成人眼可观测立体图像的结果。该技术方案可以自动测试出虚拟现实头显设备软件,节约了测试时间,节省了人力成本,且测试的是定量的位置参数,大大提高测试精度,测试标准统一,应用范围广,可以适用于各类虚拟现实头显设备软件的测试。
Description
技术领域
本公开涉及软件测试技术领域,尤其涉及测试虚拟现实头显设备软件的方法及装置。
背景技术
虚拟现实(Virtual Reality,VR)头戴显示设备,简称虚拟现实头显设备,是利用仿真技术与计算机图形学人机接口技术、多媒体技术、传感技术、网络技术等多种技术集合的产品,其原理是将一个画面分为两个图像,分别对应于用户的左右眼,让用户左右眼所看到的图像相互独立,这样,用户左右眼通过虚拟现实头显设备的透镜可以分别观看到对应于左右眼的独立图像,形成立体视觉。
发明内容
本公开实施例提供测试虚拟现实头显设备软件的方法及装置。所述技术方案如下:
根据本公开实施例的第一方面,提供一种测试虚拟现实头显设备软件的方法,包括:
从虚拟现实头显设备中多次获取测试图像对应的一对左眼图像和右眼图像;
对所述一对左眼图像和右眼图像进行图像分析,获取多组特征点位置,其中,每组特征点位置包括左眼特征点在所述左眼图像中的第一位置和右眼特征点在所述右眼图像中的第二位置;每组所述左眼特征点和所述右眼特征点具有相同的预设颜色值,所述预设颜色值包括所述测试图像中各像素点的颜色值中具有唯一性的颜色值;
针对每组所述左眼特征点和所述右眼特征点,根据每组特征点位置,确定所述左眼特征点在所述左眼图像中的第一相对位置与所述右眼特征点在所述右眼图像中的第二相对位置之间的差异;
根据所述第一相对位置与所述第二相对位置之间的差异,确定所述虚拟现实头显设备软件生成人眼可观测立体图像的结果,其中,所述虚拟现实头显设备软件用于根据预存的所述测试图像生成对应的一对左眼图像和右眼图像。
本公开的实施例提供的技术方案可以包括以下有益效果:本实施例可以自动测试出虚拟现实头显设备软件生成人眼可观测立体图像的结果,节约了测试时间,节省了人力成本,且测试的是定量的位置值,大大提高测试精度,测试标准统一,应用范围广,可以适用于各类虚拟现实头显设备软件的测试。
在一个实施例中,所述根据每组特征点位置,确定所述左眼特征点在所述左眼图像中的第一相对位置与所述右眼特征点在所述右眼图像中的第二相对位置之间的差异,包括:
根据每组特征点位置,确定所述左眼特征点与所述左眼图像的第一边框之间的第一间距,以及所述右眼特征点与所述右眼图像的第二边框之间的第二间距;其中,所述第一边框和所述第二边框都为左边框;或者,所述第一边框和所述第二边框都为右边框;
计算所述第一间距和所述第二间距之间的间距差。
本公开的实施例提供的技术方案可以包括以下有益效果:本实施例将同一像素点在左右眼图像中的相对位置定量地用第一间距和第二间距之间的间距差来表示,计算简单便捷。
在一个实施例中,所述根据所述第一相对位置与所述第二相对位置之间的差异,确定所述虚拟现实头显设备软件生成人眼可观测立体图像的结果,包括:
当根据任一组特征点位置确定的所述第一间距和所述第二间距之间的间距差不在预设范围内时,确定所述虚拟现实头显设备软件不能满足生成人眼可观测立体图像的条件。
本公开的实施例提供的技术方案可以包括以下有益效果:本实施例可以在有一组的所述左眼特征点和所述右眼特征点对应的所述间距差不在预设范围内时,就确定所述虚拟现实头显设备软件不能正确生成人眼可观测的立体图像,提高测试精度。
在一个实施例中,所述方法还包括:
在获取到的N对左眼图像和右眼图像中,根据每组特征点位置确定的所述第一间距和所述第二间距之间的间距差均在预设范围内时,确定所述虚拟现实头显设备软件满足生成人眼可观测立体图像的条件,其中,所述N为大于等于1的整数。
本公开的实施例提供的技术方案可以包括以下有益效果:本实施例限定了获取左眼图像和右眼图像的对数,可以在测试完限定对数的左眼图像和右眼图像后,就确定出测试结果,有一定的测试精度和测试效率。
在一个实施例中,所述方法还包括:
获取所述测试图像;
对所述测试图像进行图像分析,获取所述预设颜色值。
本公开的实施例提供的技术方案可以包括以下有益效果:本实施例中测试装置可以自主分析测试图像,获取预设颜色值,而不需要测试人员输入,减少测试人员操作,降低人力成本。
在一个实施例中,所述N对左眼图像和右眼图像中的每对左眼图像和右眼图像都不同。
本实施例可以对N对不同的左眼图像和右眼图像进行分析来测试虚拟现实头显设备软件,可以减少不必要的分析计算,提升测试效率和测试精度。
本公开的实施例提供的技术方案可以包括以下有益效果:本实施例可以
根据本公开实施例的第二方面,提供一种测试虚拟现实头显设备软件的装置,包括:
第一获取模块,用于从虚拟现实头显设备中多次获取测试图像对应的一对左眼图像和右眼图像;
第二获取模块,用于对所述一对左眼图像和右眼图像进行图像分析,获取多组特征点位置,其中,每组特征点位置包括左眼特征点在所述左眼图像中的第一位置和右眼特征点在所述右眼图像中的第二位置;每组所述左眼特征点和所述右眼特征点具有相同的预设颜色值,所述预设颜色值包括所述测试图像中各像素点的颜色值中具有唯一性的颜色值;
第一确定模块,用于针对每组所述左眼特征点和所述右眼特征点,根据每组特征点位置,确定所述左眼特征点在所述左眼图像中的第一相对位置与所述右眼特征点在所述右眼图像中的第二相对位置之间的差异;
第二确定模块,用于根据所述第一相对位置与所述第二相对位置之间的差异,确定所述虚拟现实头显设备软件是生成人眼可观测立体图像的结果,其中,所述虚拟现实头显设备软件用于生成所述测试图像对应的一对左眼图像和右眼图像。
在一个实施例中,所述第一确定模块包括:
第一确定子模块,用于根据每组特征点位置,确定所述左眼特征点与所述左眼图像的第一边框之间的第一间距,以及所述右眼特征点与所述右眼图像的第二边框之间的第二间距;其中,所述第一边框和所述第二边框都为左边框;或者,所述第一边框和所述第二边框都为右边框;
第二确定子模块,用于计算所述第一间距和所述第二间距之间的间距差。
在一个实施例中,所述第二确定模块包括:
第三确定子模块,用于在根据任一组特征点位置确定的所述第一间距和所述第二间距之间的间距差不在预设范围内时,确定所述虚拟现实头显设备软件不能满足生成人眼可观测立体图像的条件。
在一个实施例中,所述装置还包括:
第三确定模块,用于在获取到的N对左眼图像和右眼图像中,根据每组特征点位置确定的所述第一间距和所述第二间距之间的间距差均在预设范围内时,确定所述虚拟现实头显设备软件能满足生成人眼可观测立体图像的条件,其中,所述N为大于等于1的整数。
在一个实施例中,所述装置还包括:
第三获取模块,用于获取所述测试图像;
第四获取模块,用于对所述测试图像进行图像分析,获取所述预设颜色值。
在一个实施例中,所述N对左眼图像和右眼图像中的每对左眼图像和右眼图像都不同。
根据本公开实施例的第三方面,提供一种测试虚拟现实头显设备软件的装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
从虚拟现实头显设备中多次获取测试图像对应的一对左眼图像和右眼图像;
对所述一对左眼图像和右眼图像进行图像分析,获取多组特征点位置,其中,每组特征点位置包括左眼特征点在所述左眼图像中的第一位置和右眼特征点在所述右眼图像中的第二位置;每组所述左眼特征点和所述右眼特征点具有相同的预设颜色值,所述预设颜色值包括所述测试图像中各像素点的颜色值中具有唯一性的颜色值;
针对每组所述左眼特征点和所述右眼特征点,根据每组特征点位置,确定所述左眼特征点在所述左眼图像中的第一相对位置与所述右眼特征点在所述右眼图像中的第二相对位置之间的差异;
根据所述第一相对位置与所述第二相对位置之间的差异,确定所述虚拟现实头显设备软件生成人眼可观测立体图像的结果,其中,所述虚拟现实头显设备软件用于生成所述测试图像对应的一对左眼图像和右眼图像。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的测试虚拟现实头显设备软件的方法的流程图。
图2是根据一示例性实施例示出的测试虚拟现实头显设备软件的方法的流程图。
图3是根据一示例性实施例示出的测试虚拟现实头显设备软件的方法的流程图。
图4是根据一示例性实施例示出的测试虚拟现实头显设备软件的装置的框图。
图5是根据一示例性实施例示出的测试虚拟现实头显设备软件的装置的框图。
图6是根据一示例性实施例示出的测试虚拟现实头显设备软件的装置的框图。
图7是根据一示例性实施例示出的测试虚拟现实头显设备软件的装置的框图。
图8是根据一示例性实施例示出的测试虚拟现实头显设备软件的装置的框图。
图9是根据一示例性实施例示出的测试虚拟现实头显设备软件的装置的框图。
图10是根据一示例性实施例示出的测试虚拟现实头显设备软件的装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
虚拟现实,又称虚拟技术,也称虚拟环境,是利用电脑模拟产生一个三维空间的虚拟世界,提供用户关于视觉等感官的模拟,让用户感觉仿佛身历其境,可以及时、没有限制地观察三维空间内的事物。用户进行位置移动时,电脑可以立即进行复杂的运算,将精确的三维世界视频传回,使用户产生临场感。该技术集成了计算机图形、计算机仿真、人工智能、感应、显示及网络并行处理等技术的最新发展成果,是一种由计算机技术辅助生成的高技术模拟系统。
虚拟现实头显设备是一种头戴型显示器,针对左右眼生成不同的图像,人眼获取这种带有差异的图像后在脑中产生立体感。虚拟现实头显设备软件是针对于上述虚拟现实头显设备开发的应用软件,能够针对左右眼生成不同的图像,人眼观测后脑中形成立体图像。虚拟现实头显设备可分为三类:外接式头显设备、一体式头显设备、移动端头显设备。外接式头显设备,用户体验较好,具备独立屏幕,产品结构复杂,技术含量较高,不过需要PC等硬件的支持;一体式头显设备,也叫VR一体机,无需借助外部硬件设备,将显示功能和硬件集成到一个头显中;移动端头显设备,结构简单,价格低廉,只要放入手机即可观看,使用方便。
无论哪种虚拟现实头显设备,均需要向用户呈现左右眼两幅不同的图像。而这两幅图像经过人眼观察后,是否能形成一个人眼可观测的立体图像,是判断虚拟现实头显设备功能正确性的一个重要因素,也是虚拟现实头显设备的重要测试项之一。
相关技术中,针对这一测试项,通用的测试方法为人工测试,即通过测试人员实际佩戴虚拟现实头显设备,运行虚拟现实头显设备,直接观测能否形成人眼可观测的立体图像,以进行判断。但是人工测试必须要人工手动进行测试,耗费时间,人力成本高;另外,人眼只能定性判断,导致测试精度不够,测试误差大,而且不同的测试人员判断标准不一致,无法满足测试一致性要求。
本公开实施例中,虚拟现实头显设备软件可以多次根据预存的测试图像生成对应的一对左眼图像和右眼图像,然后将测试图像对应的一对左眼图像和右眼图像发送给测试装置,这样测试装置可以多次从虚拟现实头显设备获取某测试图像对应的一对左眼图像和右眼图像,每次获取后都对获取的一对左眼图像和右眼图像进行图像分析,获取多组特征点位置,其中,每组特征点位置包括左眼特征点在左眼图像中的第一位置和右眼特征点在右眼图像中的第二位置;左眼特征点和右眼特征点是该测试图像中某一像素点分别对应到左眼图像和右眼图像中的像素点;测试装置根据每组特征点位置,确定左眼特征点在左眼图像中的第一相对位置和右眼特征点在右眼图像中的第二位置,确定出同一像素点在左右眼的偏差值,并根据该偏差值分析出用户使用左右眼观看该对左眼图像和右眼图像后是否能看到立体图像,即确定虚拟现实头显设备软件是否能正确生成人眼可观测的立体图像。本实施例不需要人工手动进行测试,可以自动测试出虚拟现实头显设备软件是否能正确生成人眼可观测的立体图像,节约了测试时间,节省了人力成本,且测试的是定量的位置值,大大提高测试精度,测试标准统一,应用范围广,可以适用于各类虚拟现实头显设备软件的测试。
图1是根据一示例性实施例示出的一种测试虚拟现实头显设备软件的方法的流程图,如图1所示,测试虚拟现实头显设备软件的方法用于终端中,包括以下步骤S101-S104:
在步骤S101中,从虚拟现实头显设备中多次获取测试图像对应的一对左眼图像和右眼图像。
在测试虚拟现实头显设备软件时,可以开启虚拟现实头显设备中的虚拟现实头显设备软件,虚拟现实头显设备软件就可以针对预存的测试图像生成一对左眼图像和右眼图像,该虚拟现实头显设备可以每隔一定时长就将当前生成的一对左眼图像和右眼图像发送给测试装置。当然,测试装置也可以每隔一定时长向该虚拟现实头显设备发送一次图像请求消息,该虚拟现实头显设备在接收到该图像请求消息后,将当前生成的测试图像对应的一对左眼图像和右眼图像发送给测试装置。示例地,一定时长可以是2s。
这里,当用户带着虚拟现实头显设备进行位置移动时,虚拟现实头显设备软件可以根据用户移动后变化的场景立即进行复杂的运算,生成移动后的左右眼图像,使用户产生临场感;故为了测试场景变化下的虚拟现实头显设备软件,可以将虚拟现实头显设备安放于可自动调整角度的机械装置上,该机械装置开启后,可以自动调整虚拟现实头显设备的角度,变化场景。这样,虚拟现实头显设备就可以向测试装置发送各种角度下的测试图像对应的一对左眼图像和右眼图像。
在步骤S102中,对所述一对左眼图像和右眼图像进行图像分析,获取多组特征点位置,其中,每组特征点位置包括左眼图像中左眼特征点的第一位置和所述右眼图像中右眼特征点的第二位置;每组所述左眼特征点和所述右眼特征点具有相同的预设颜色值,所述预设颜色值包括所述测试图像中各像素点的颜色值中具有唯一性的颜色值。
这里,针对一对左眼图像和右眼图像,可以对该对左眼图像和右眼图像进行图像分析,获取测试图像中的某一像素点在左眼图像中的第一位置和在右眼图像中的第二位置。一个像素点在左眼图像中的第一位置和在右眼图像中的第二位置即为一组特征点位置。
由于在虚拟现实开发环境中,会将测试图像中的某一个像素点转换为左右眼图像中像素点,且同一像素点对应到左眼图像中的像素点的颜色值与对应到右眼图像中的像素点的颜色值是相同的。故本实施例中测试装置可以根据预设颜色值,从左右眼图像中分别获取具有同一预设颜色值的左眼特征点和右眼特征点,这里,预设颜色值是所述测试图像中各像素点的颜色值中具有唯一性的颜色值,即所述测试图像中只有一个像素点具有该预设颜色值。则左眼图像中具有该预设颜色值的左眼特征点和右眼图像中具有该预设颜色值的左眼特征点就是同一个像素点,即都是测试图像中具有该预设颜色值的像素点。
这里需要说明的是,预设颜色值可以是测试人员输入到测试装置中的,测试人员可以在虚拟现实头显设备软件中的测试图像上设置若干个的模型点,每个模拟点的颜色值设置为不同的预设颜色值,该预设颜色值是测试图像上其他像素点没有的,可以明确分辨的颜色值;同时测试人员将这些预设颜色值输入到测试装置,测试装置记录这些预设颜色值。
这里,预设颜色值可以是RGB值,RGB值用于表征图片中像素的颜色,RGB值越大图片的亮度越高,例如,可以用RGB(255,255,255)来表示白色,用RGB(0,0,0)来表示黑色。值得说明的是,在实际应用中还可以选择Lab值等来表征颜色值。本实施例中的预设颜色值为RGB值,RGB值可以精确表示一个像素点的颜色值,方便预设颜色值的设置,并且RGB值可以使测试装置精确方便地确定出同一像素点在左右眼图像中的位置,提升测试效率。
故,测试装置可以对该对左眼图像和右眼图像进行图像分析,获取左眼图像中各个像素点的颜色值和右眼图像中各个像素点的颜色值,获取具有同一预设颜色值的左眼特征点和右眼特征点,每一组具有同一预设颜色值的左眼特征点和右眼特征点成为一组特征点;进而测试装置可以获取左眼特征点在左眼图像中的第一位置和右眼特征点在右眼图像中的第二位置。
这里需要说明的是,测试装置中存储的预设颜色值可以是一个,也可以是两个或两个以上,故测试装置可以获取一组特征点或多组特征点,每组特征点对应具有一个相同的预设颜色值。
测试装置可以从一对左右眼图像中获取到多组特征点位置,每组特征点都具有相同的预设颜色值,每组特征点位置可以以图像的编号和特征点的颜色值为索引,形成一个二维数组。示例地,第一对左右眼图像中的左眼图像的标号为00,右眼图像的编号为01,则a[00][颜色值1]—位置1表示左眼图像中颜色值为1的像素点的第一位置为位置1;则a[01][颜色值1]—位置2表示右眼图像中颜色值为1的像素点的第二位置为位置2。
在步骤S103中,针对每组所述左眼特征点和所述右眼特征点,根据每组特征点位置,确定所述左眼特征点在所述左眼图像中的第一相对位置与所述右眼特征点在所述右眼图像中的第二相对位置之间的差异。
在步骤S104中,根据所述第一相对位置与所述第二相对位置之间的差异,确定所述虚拟现实头显设备软件生成人眼可观测立体图像的结果,其中,所述虚拟现实头显设备软件用于根据预存的所述测试图像生成对应的一对左眼图像和右眼图像。
这里,左眼图像与右眼图像在水平方向上存在视差,同一像素点在左眼图像和右眼图像中的相对位置有一定的偏差,如果同一像素点在左眼图像和右眼图像中的相对位置的偏差在特定的偏差范围内,则左眼图像与右眼图像通过人眼观测后,人脑中会形成立体图像,如果超过这个偏差范围,左眼图像与右眼图像通过人眼观测后,人脑中不能形成立体图像。由于本实施例中测试装置获取的这一对左眼图像和右眼图像是虚拟现实头显设备软件根据预存的所述测试图像生成的,故如果这一对左眼图像和右眼图像通过人眼观测后能够在人脑中形成立体图像,则表明该虚拟现实头显设备软件能正确生成人眼可观测立体图像,如果这一对左眼图像和右眼图像通过人眼观测后不能够在人脑中形成立体图像,则表明该虚拟现实头显设备软件不能正确生成人眼可观测立体图像。故,测试装置可以根据左眼特征点在左眼图像中的第一相对位置与右眼特征点在右眼图像中的第二相对位置之间的差异,确定这一对左眼图像和右眼图像通过人眼观测后能否在人脑中形成立体图像,进而确定虚拟现实头显设备软件生成人眼可观测立体图像的结果。
这里,如果第一相对位置与第二相对位置之间的差异超过该形成立体图像的偏差范围,则确定这一对左眼图像和右眼图像通过人眼观测后不能在人脑中形成立体图像,虚拟现实头显设备软件生成人眼可观测立体图像的结果为虚拟现实头显设备软件不能正确生成人眼可观测立体图像;如果第一相对位置与第二相对位置之间的差异在该形成立体图像的偏差范围内,则确定这一对左眼图像和右眼图像通过人眼观测后能在人脑中形成立体图像,虚拟现实头显设备软件生成人眼可观测立体图像的结果为虚拟现实头显设备软件能正确生成人眼可观测立体图像。
示例地,以左眼图像的左下角为直角坐标系的原点,单位为像素点个数,水平方向为x轴,垂直方向为y轴,用坐标值来表示左眼特征点在左眼图像中的第一位置,则左眼图像中颜色值为颜色值1的左眼特征点的第一位置可以用坐标(24,30)表示,即a[00][颜色值1]—坐标(24,30);以右眼图像的左下角为直角坐标系的原点,单位为像素点个数,水平方向为x轴,垂直方向为y轴,用坐标值来表示左眼特征点在左眼图像中的第二位置,则右眼图像中颜色值为颜色值1的右眼特征点的第二位置可以用坐标(20,30)表示,即a[01][颜色值1]—(20,30)。则测试装置可以获得左眼特征点在左眼图像中的第一相对位置为离左眼图像的左下角水平方向24个像素点垂直方向30个像素点,右眼特征点在右眼图像中的第二相对位置为离右眼图像的左下角水平方向20个像素点垂直方向30个像素点,则第一相对位置与第二相对位置之间的差异为:与右眼特征点在右眼图像中的第一相对位置相比左眼特征点在左眼图像中偏右的位置,偏移值为4,测试装置可以根据该偏移值是否在形成立体图像的偏差范围内来确定所述虚拟现实头显设备软件是否能正确生成人眼可观测的立体图像。
本实施例可以自动测试出虚拟现实头显设备软件生成人眼可观测的立体图像的结果,节约了测试时间,节省了人力成本,且测试的是定量的位置值,大大提高测试精度,测试标准统一,应用范围广,可以适用于各类虚拟现实头显设备软件的测试。
在一个实施例中,步骤S103包括步骤A1-A2。
在步骤A1中,根据每组特征点位置,确定所述左眼特征点与所述左眼图像的第一边框之间的第一间距,以及所述右眼特征点与所述右眼图像的第二边框之间的第二间距;其中,所述第一边框和所述第二边框都为左边框;或者,所述第一边框和所述第二边框都为右边框。
在步骤A2中,计算所述第一间距和所述第二间距之间的间距差。
本实施例中,若第一边框和第二边框都为左边框,则左眼特征点在左眼图像中的第一相对位置为左眼特征点与左眼图像的左边框之间的第一间距,右眼特征点在右眼图像中的第二相对位置为右眼特征点与右眼图像的左边框之间的第二间距,第一相对位置与第二相对位置之间的差异为第一间距和第二间距之间的间距差。若第一边框和第二边框都为右边框,则左眼特征点在左眼图像中的第一相对位置是左眼特征点与左眼图像的右边框之间的第一间距,右眼特征点在右眼图像中的第二相对位置为右眼特征点与右眼图像的右边框之间的第二间距,左眼特征点在左眼图像中的相对位置与右眼特征点在右眼图像中的相对位置之间的差异为第一间距和第二间距之间的间距差。
示例地,假设左眼图像中颜色值为颜色值1的左眼特征点的第一位置为坐标(24,30),右眼图像中颜色值为颜色值1的右眼特征点的第二位置为坐标(20,30);则第一间距为24个像素点,第二间距为20个像素点,间距差为4个像素点。可以将每组特征点对应的间距差,存储为以图像编号和特征点的颜色为索引的一个二位数组,如第一对左右眼图像标号为0,则a[0][颜色值1]—4表示第一对左右眼图像中颜色值为颜色值1的一对特征点对应的间距差为4个像素点。
这里需要说明的是,左眼图像和右眼图像在垂直方向上没有视差,故在确定左眼特征点在左眼图像中的相对位置和右眼特征点在右眼图像中的相对位置时,可以不考虑垂直方向,只需确定水平方向上的偏移量。
测试终端获得间距差后,就可以根据该间距差确定虚拟现实头显设备软件是否能正确生成人眼可观测的立体图像。
本实施例将同一像素点在左右眼的偏移量定量地用第一间距和第二间距之间的间距差来表示,计算简单便捷。
在一个实施例中,步骤S104包括步骤B1。
在步骤B1中,当根据任一组特征点位置确定的所述第一间距和所述第二间距之间的间距差不在预设范围内时,确定所述虚拟现实头显设备软件不能满足生成人眼可观测立体图像的条件。
其中,同一像素点在左眼图像和右眼图像中的相对位置的偏差在该预设范围内时,人体左右眼分别观测到左眼图像和右眼图像后可以在脑中形成立体图像。
本实施例中,针对任一组特征点,只要进行步骤A1和A2后,根据任一组特征点位置确定出的第一间距和第二间距之间的间距差不在预设范围内,则确定虚拟现实头显设备软件生成的左右眼图像不能使人体在脑中形成立体图像,即确定虚拟现实头显设备软件不能正确生成人眼可观测的立体图像。
本实施例可以在有一组特征点位置确定出的第一间距和第二间距之间的间距差不在预设范围内时,就确定该虚拟现实头显设备软件不满足生成人眼可观测立体图像的条件,提高测试精度。
在一个实施例中,所述方法还包括步骤C1。
在步骤C1中,在获取到的N对左眼图像和右眼图像中,根据每组特征点位置确定的所述第一间距和所述第二间距之间的间距差均在预设范围内时,确定所述虚拟现实头显设备软件能满足生成人眼可观测立体图像的条件,其中,所述N为大于等于1的整数。
本实施例中,虚拟现实头显设备会向测试装置发送N对左眼图像和右眼图像,测试装置每获取一对左眼图像和右眼图像,就分析获取该对左眼图像和右眼图像对应的多组特征点位置,并根据每组特征点位置确定第一间距和第二间距之间的间距差,如果根据每组特征点位置确定的所述第一间距和所述第二间距之间的间距差均在预设范围内,就继续分析获取下一对左眼图像和右眼图像对应的多组特征点,并根据每组特征点位置确定第一间距和第二间距之间的间距差,直至获取到的N对左眼图像和右眼图像中,根据每组特征点位置确定第一间距和第二间距之间的间距差均在预设范围内,则确定所述虚拟现实头显设备软件满足生成人眼可观测立体图像的条件。
这里,所述N可以按照实际情况综合考虑测试精度和测试效率两方面进行设置,如果侧重测试精度,N值可以设置的大一点,如果侧重测试效率,N值可以设置的小一点,在此并不做限制,示例地,综合考虑测试精度和测试效率可以将N设置为10。
本实施例限定了获取左眼图像和右眼图像的对数,可以在测试完限定对数的左眼图像和右眼图像后,就确定出测试结果,有一定的测试精度和测试效率。
在一个实施例中,所述方法还包括步骤D1-D2。
在步骤D1中,获取所述测试图像。
在步骤D2中,对所述测试图像进行图像分析,获取所述预设颜色值。
本实施例中,虚拟现实头显设备可以将测试图像发送给测试装置,测试装置获取到测试图像后,对测试图像进行图像分析,获取侧视图像中各个像素点对应的颜色值,然后从这些颜色值中选择出具有唯一性的预设颜色值,即各个像素点中只有一个像素点具有该预设颜色值。
本实施例中测试装置可以自主分析测试图像,获取预设颜色值,而不需要测试人员输入,减少测试人员操作,降低人力成本。
如果N对左眼图像和右眼图像中有两对左眼图像和右眼图像是相同的,则测试装置就需要重复地对这相同的两对左眼图像和右眼图像进行分析计算,故为了减少不必要的分析计算,在一个实施例中,所述N对左眼图像和右眼图像中的每对左眼图像和右眼图像都不同。
本实施例中,虚拟现实头显设备可以在场景变化时,触发性地将生成的一对左眼图像和右眼图像发送给测试装置,这样,测试装置获取到的N对左眼图像和右眼图像中,每对左眼图像和右眼图像都不同;进而测试装置就可以对各对不同的左眼图像和右眼图像进行分析,计算各组特征点对应的间距差,并以此确定虚拟现实头显设备软件生成人眼可观测立体图像的结果。
本实施例可以对N对不同的左眼图像和右眼图像进行分析来测试虚拟现实头显设备软件,可以减少不必要的分析计算,提升测试效率和测试精度。
下面通过几个实施例详细介绍实现过程。
图2是根据一示例性实施例示出的一种测试虚拟现实头显设备软件的方法的流程图,如图2所示,该方法可以由具有图像处理功能的设备实现,包括以下步骤:
在步骤S201中,从虚拟现实头显设备中N次获取测试图像对应的一对左眼图像和右眼图像。
在步骤S202中,对所述一对左眼图像和右眼图像进行图像分析,获取多组特征点位置,其中,每组特征点位置包括左眼特征点在所述左眼图像中的第一位置和右眼特征点在所述右眼图像中的第二位置;每组所述左眼特征点和所述右眼特征点具有相同的预设颜色值,所述预设颜色值包括所述测试图像中各像素点的颜色值中具有唯一性的颜色值。
在步骤S203中,针对每组所述左眼特征点和所述右眼特征点,根据每组特征点位置,确定所述左眼特征点与所述左眼图像的第一边框之间的第一间距,以及所述右眼特征点与所述右眼图像的第二边框之间的第二间距;其中,所述第一边框和所述第二边框都为左边框;或者,所述第一边框和所述第二边框都为右边框。
在步骤S204中,计算所述第一间距和所述第二间距之间的间距差。
在步骤S205中,当根据任一组特征点位置确定的所述第一间距和所述第二间距之间的间距差不在预设范围内时,确定所述虚拟现实头显设备软件不能满足生成人眼可观测立体图像的条件。
在步骤S206中,在获取到的N对左眼图像和右眼图像中,根据每组特征点位置确定的所述第一间距和所述第二间距之间的间距差均在预设范围内时,确定所述虚拟现实头显设备软件满足生成人眼可观测立体图像的条件,其中,所述N为大于等于1的整数。
图3是根据一示例性实施例示出的一种测试虚拟现实头显设备软件的方法的流程图,如图3所示,该方法可以由具有图像处理功能的设备实现,包括以下步骤:
在步骤S301中,获取测试图像。
在步骤S302中,对所述测试图像进行图像分析,获取所述预设颜色值。
在步骤S303中,从虚拟现实头显设备中N次获取测试图像对应的一对左眼图像和右眼图像。
在步骤S304中,对所述一对左眼图像和右眼图像进行图像分析,获取多组特征点位置,其中,每组特征点位置包括左眼特征点在所述左眼图像中的第一位置和右眼特征点在所述右眼图像中的第二位置;每组所述左眼特征点和所述右眼特征点具有相同的预设颜色值,所述预设颜色值包括所述测试图像中各像素点的颜色值中具有唯一性的颜色值。
在步骤S305中,针对每组所述左眼特征点和所述右眼特征点,根据每组特征点位置,确定所述左眼特征点与所述左眼图像的第一边框之间的第一间距,以及所述右眼特征点与所述右眼图像的第二边框之间的第二间距;其中,所述第一边框和所述第二边框都为左边框;或者,所述第一边框和所述第二边框都为右边框。
在步骤S306中,计算所述第一间距和所述第二间距之间的间距差。
在步骤S307中,当根据任一组特征点位置确定的所述第一间距和所述第二间距之间的间距差不在预设范围内时,确定所述虚拟现实头显设备软件不能满足生成人眼可观测立体图像的条件。
在步骤S308中,在获取到的N对左眼图像和右眼图像中,根据每组特征点位置确定的所述第一间距和所述第二间距之间的间距差均在预设范围内时,确定所述虚拟现实头显设备软件满足生成人眼可观测立体图像的条件,其中,所述N为大于等于1的整数,所述N对左眼图像和右眼图像中的每对左眼图像和右眼图像都不同。
下述为本公开装置实施例,可以用于执行本公开方法实施例。
图4是根据一示例性实施例示出的一种测试虚拟现实头显设备软件的装置的框图,该装置可以通过软件、硬件或者两者的结合实现成为电子设备的部分或者全部。如图4所示,该测试虚拟现实头显设备软件的装置包括第一获取模块401,第二获取模块402,第一确定模块403和第二确定模块404,其中:
第一获取模块401,用于从虚拟现实头显设备中多次获取测试图像对应的一对左眼图像和右眼图像;
第二获取模块402,用于对所述一对左眼图像和右眼图像进行图像分析,获取多组特征点位置,其中,每组特征点位置包括左眼特征点在所述左眼图像中的第一位置和右眼特征点在所述右眼图像中的第二位置;每组所述左眼特征点和所述右眼特征点具有相同的预设颜色值,所述预设颜色值包括所述测试图像中各像素点的颜色值中具有唯一性的颜色值;
第一确定模块403,用于针对每组所述左眼特征点和所述右眼特征点,根据每组特征点位置,确定所述左眼特征点在所述左眼图像中的第一相对位置与所述右眼特征点在所述右眼图像中的第二相对位置之间的差异;
第二确定模块404,用于根据所述第一相对位置与所述第二相对位置之间的差异,确定所述虚拟现实头显设备软件是生成人眼可观测立体图像的结果,其中,所述虚拟现实头显设备软件用于根据预存的所述测试图像生成对应的一对左眼图像和右眼图像。
在一个实施例中,如图5所示,所述第一确定模块403包括第一确定子模块4031和第二确定子模块4032,其中:
第一确定子模块4031,用于根据每组特征点位置,确定所述左眼特征点与所述左眼图像的第一边框之间的第一间距,以及所述右眼特征点与所述右眼图像的第二边框之间的第二间距;其中,所述第一边框和所述第二边框都为左边框;或者,所述第一边框和所述第二边框都为右边框;
第二确定子模块4032,用于计算所述第一间距和所述第二间距之间的间距差。
在一个实施例中,如图6所示,所述第二确定模块404包括第三确定子模块4041,其中,第三确定子模块4041,用于在根据任一组特征点位置确定的所述第一间距和所述第二间距之间的间距差不在预设范围内时,确定所述虚拟现实头显设备软件不能满足生成人眼可观测立体图像的条件。
在一个实施例中,如图7所示,所述装置还包括第三确定模块405,其中,第三确定模块405,用于在获取到的N对左眼图像和右眼图像中,根据每组特征点位置确定的所述第一间距和所述第二间距之间的间距差均在预设范围内时,确定所述虚拟现实头显设备软件能满足生成人眼可观测立体图像的条件,其中,所述N为大于等于1的整数。
在一个实施例中,所述预设颜色值包括RGB值。
在一个实施例中,如图8所示,所述装置还包括第三获取模块406和第四获取模块407,其中:
第三获取模块406,用于获取所述测试图像;
第四获取模块407,用于对所述测试图像进行图像分析,获取所述预设颜色值。
在一个实施例中,所述N对左眼图像和右眼图像中的每对左眼图像和右眼图像都不同。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图9是根据一示例性实施例示出的一种用于测试虚拟现实头显设备软件的装置的框图,该装置适用于终端设备。例如,装置900可以是移动电话,游戏控制台,电脑、平板设备,个人数字助理等。
装置900可以包括以下一个或多个组件:处理组件901,存储器902,电源组件903,多媒体组件904,音频组件905,输入/输出(I/O)接口906,传感器组件907,以及通信组件908。
处理组件901通常控制装置900的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件901可以包括一个或多个处理器920来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件901可以包括一个或多个模块,便于处理组件901和其他组件之间的交互。例如,处理组件901可以包括多媒体模块,以方便多媒体组件904和处理组件901之间的交互。
存储器902被配置为存储各种类型的数据以支持在装置900的操作。这些数据的示例包括用于在装置900上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器902可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件903为装置900的各种组件提供电力。电源组件903可以包括电源管理系统,一个或多个电源,及其他与为装置900生成、管理和分配电力相关联的组件。
多媒体组件904包括在所述装置900和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件904包括一个前置摄像头和/或后置摄像头。当装置900处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件905被配置为输出和/或输入音频信号。例如,音频组件905包括一个麦克风(MIC),当装置900处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器902或经由通信组件908发送。在一些实施例中,音频组件905还包括一个扬声器,用于输出音频信号。
I/O的接口906为处理组件901和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件907包括一个或多个传感器,用于为装置900提供各个方面的状态评估。例如,传感器组件907可以检测到装置900的打开/关闭状态,组件的相对定位,例如所述组件为装置900的显示器和小键盘,传感器组件907还可以检测装置900或装置900一个组件的位置改变,用户与装置900接触的存在或不存在,装置900方位或加速/减速和装置900的温度变化。传感器组件907可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件907还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件907还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件908被配置为便于装置900和其他设备之间有线或无线方式的通信。装置900可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件908经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件908还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置900可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器902,上述指令可由装置900的处理器920执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种测试虚拟现实头显设备软件的装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
从虚拟现实头显设备中多次获取测试图像对应的一对左眼图像和右眼图像;
对所述一对左眼图像和右眼图像进行图像分析,获取多组特征点位置,其中,每组特征点位置包括左眼特征点在所述左眼图像中的第一位置和右眼特征点在所述右眼图像中的第二位置;每组所述左眼特征点和所述右眼特征点具有相同的预设颜色值,所述预设颜色值包括所述测试图像中各像素点的颜色值中具有唯一性的颜色值;
针对每组所述左眼特征点和所述右眼特征点,根据每组特征点位置,确定所述左眼特征点在所述左眼图像中的第一相对位置与所述右眼特征点在所述右眼图像中的第二相对位置之间的差异;
根据所述第一相对位置与所述第二相对位置之间的差异,确定所述虚拟现实头显设备软件生成人眼可观测立体图像的结果,其中,所述虚拟现实头显设备软件用于根据预存的所述测试图像生成对应的一对左眼图像和右眼图像。
所述处理器还可以被配置为:
所述根据每组特征点位置,确定所述左眼特征点在所述左眼图像中的第一相对位置与所述右眼特征点在所述右眼图像中的第二相对位置之间的差异,包括:
根据每组特征点位置,确定所述左眼特征点与所述左眼图像的第一边框之间的第一间距,以及所述右眼特征点与所述右眼图像的第二边框之间的第二间距;其中,所述第一边框和所述第二边框都为左边框;或者,所述第一边框和所述第二边框都为右边框;
计算所述第一间距和所述第二间距之间的间距差。
所述处理器还可以被配置为:
所述根据所述第一相对位置与所述第二相对位置之间的差异,确定所述虚拟现实头显设备软件生成人眼可观测立体图像的结果,包括:
当根据任一组特征点位置确定的所述第一间距和所述第二间距之间的间距差不在预设范围内时,确定所述虚拟现实头显设备软件不能满足生成人眼可观测立体图像的条件。
所述处理器还可以被配置为:
所述方法还包括:
在获取到的N对左眼图像和右眼图像中,根据每组特征点位置确定的所述第一间距和所述第二间距之间的间距差均在预设范围内时,确定所述虚拟现实头显设备软件满足生成人眼可观测立体图像的条件,其中,所述N为大于等于1的整数。
所述处理器还可以被配置为:
所述方法还包括:
获取所述测试图像;
对所述测试图像进行图像分析,获取所述预设颜色值。
所述处理器还可以被配置为:
所述N对左眼图像和右眼图像中的每对左眼图像和右眼图像都不同。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由装置900的处理器执行时,使得装置900能够执行上述测试虚拟现实头显设备软件的方法,所述方法包括:
从虚拟现实头显设备中多次获取测试图像对应的一对左眼图像和右眼图像;
对所述一对左眼图像和右眼图像进行图像分析,获取多组特征点位置,其中,每组特征点位置包括左眼特征点在所述左眼图像中的第一位置和右眼特征点在所述右眼图像中的第二位置;每组所述左眼特征点和所述右眼特征点具有相同的预设颜色值,所述预设颜色值包括所述测试图像中各像素点的颜色值中具有唯一性的颜色值;
针对每组所述左眼特征点和所述右眼特征点,根据每组特征点位置,确定所述左眼特征点在所述左眼图像中的第一相对位置与所述右眼特征点在所述右眼图像中的第二相对位置之间的差异;
根据所述第一相对位置与所述第二相对位置之间的差异,确定所述虚拟现实头显设备软件生成人眼可观测立体图像的结果,其中,所述虚拟现实头显设备软件用于根据预存的所述测试图像生成对应的一对左眼图像和右眼图像。
所述存储介质中的指令还可以包括:
所述根据每组特征点位置,确定所述左眼特征点在所述左眼图像中的第一相对位置与所述右眼特征点在所述右眼图像中的第二相对位置之间的差异,包括:
根据每组特征点位置,确定所述左眼特征点与所述左眼图像的第一边框之间的第一间距,以及所述右眼特征点与所述右眼图像的第二边框之间的第二间距;其中,所述第一边框和所述第二边框都为左边框;或者,所述第一边框和所述第二边框都为右边框;
计算所述第一间距和所述第二间距之间的间距差。
所述存储介质中的指令还可以包括:
所述根据所述第一相对位置与所述第二相对位置之间的差异,确定所述虚拟现实头显设备软件生成人眼可观测立体图像的结果,包括:
当根据任一组特征点位置确定的所述第一间距和所述第二间距之间的间距差不在预设范围内时,确定所述虚拟现实头显设备软件不能满足生成人眼可观测立体图像的条件。
所述存储介质中的指令还可以包括:
所述方法还包括:
在获取到的N对左眼图像和右眼图像中,根据每组特征点位置确定的所述第一间距和所述第二间距之间的间距差均在预设范围内时,确定所述虚拟现实头显设备软件满足生成人眼可观测立体图像的条件,其中,所述N为大于等于1的整数。
所述存储介质中的指令还可以包括:
所述方法还包括:
获取所述测试图像;
对所述测试图像进行图像分析,获取所述预设颜色值。
图10是根据一示例性实施例示出的一种测试虚拟现实头显设备软件的装置的框图。例如,装置1000可以被提供为一计算机。装置1000包括处理组件1011,其进一步包括一个或多个处理器,以及由存储器1012所代表的存储器资源,用于存储可由处理组件1011的执行的指令,例如应用程序。存储器1012中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1011被配置为执行指令,以执行上述方法。
装置1000还可以包括一个电源组件1013被配置为执行装置1000的电源管理,一个有线或无线网络接口1014被配置为将装置1000连接到网络,和一个输入输出(I/O)接口1015。装置1000可以操作基于存储在存储器1012的操作系统,例如Windows ServerTM,MacOS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (13)
1.一种测试虚拟现实头显设备软件的方法,其特征在于,包括:
从虚拟现实头显设备中多次获取测试图像对应的一对左眼图像和右眼图像;
对所述一对左眼图像和右眼图像进行图像分析,获取多组特征点位置,其中,每组特征点位置包括左眼特征点在所述左眼图像中的第一位置和右眼特征点在所述右眼图像中的第二位置;每组所述左眼特征点和所述右眼特征点具有相同的预设颜色值,所述预设颜色值包括所述测试图像中各像素点的颜色值中具有唯一性的颜色值;
针对每组所述左眼特征点和所述右眼特征点,根据每组特征点位置,确定所述左眼特征点在所述左眼图像中的第一相对位置与所述右眼特征点在所述右眼图像中的第二相对位置之间的差异;所述第一相对位置包括所述左眼特征点相对所述左眼图像中第一预设参考位置的相对距离,所述第二相对位置包括所述右眼特征点相对所述右眼图像中第二预设参考位置的相对距离;
根据所述第一相对位置与所述第二相对位置之间的差异,确定所述虚拟现实头显设备软件生成人眼可观测立体图像的结果,其中,所述虚拟现实头显设备软件用于根据预存的所述测试图像生成对应的一对左眼图像和右眼图像。
2.根据权利要求1所述的方法,其特征在于,所述根据每组特征点位置,确定所述左眼特征点在所述左眼图像中的第一相对位置与所述右眼特征点在所述右眼图像中的第二相对位置之间的差异,包括:
根据每组特征点位置,确定所述左眼特征点与所述左眼图像的第一边框之间的第一间距,以及所述右眼特征点与所述右眼图像的第二边框之间的第二间距;其中,所述第一边框和所述第二边框都为左边框;或者,所述第一边框和所述第二边框都为右边框;
计算所述第一间距和所述第二间距之间的间距差。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一相对位置与所述第二相对位置之间的差异,确定所述虚拟现实头显设备软件生成人眼可观测立体图像的结果,包括:
当根据任一组特征点位置确定的所述第一间距和所述第二间距之间的间距差不在预设范围内时,确定所述虚拟现实头显设备软件不能满足生成人眼可观测立体图像的条件。
4.根据权利要求2所述的方法,其特征在于,所述方法还包括:
在获取到的N对左眼图像和右眼图像中,根据每组特征点位置确定的所述第一间距和所述第二间距之间的间距差均在预设范围内时,确定所述虚拟现实头显设备软件满足生成人眼可观测立体图像的条件,其中,所述N为大于等于1的整数。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述方法还包括:
获取所述测试图像;
对所述测试图像进行图像分析,获取所述预设颜色值。
6.根据权利要求4所述的方法,其特征在于,所述N对左眼图像和右眼图像中的每对左眼图像和右眼图像都不同。
7.一种测试虚拟现实头显设备软件的装置,其特征在于,包括:
第一获取模块,用于从虚拟现实头显设备中多次获取测试图像对应的一对左眼图像和右眼图像;
第二获取模块,用于对所述一对左眼图像和右眼图像进行图像分析,获取多组特征点位置,其中,每组特征点位置包括左眼特征点在所述左眼图像中的第一位置和右眼特征点在所述右眼图像中的第二位置;每组所述左眼特征点和所述右眼特征点具有相同的预设颜色值,所述预设颜色值包括所述测试图像中各像素点的颜色值中具有唯一性的颜色值;
第一确定模块,用于针对每组所述左眼特征点和所述右眼特征点,根据每组特征点位置,确定所述左眼特征点在所述左眼图像中的第一相对位置与所述右眼特征点在所述右眼图像中的第二相对位置之间的差异;所述第一相对位置包括所述左眼特征点相对所述左眼图像中第一预设参考位置的相对距离,所述第二相对位置包括所述右眼特征点相对所述右眼图像中第二预设参考位置的相对距离;
第二确定模块,用于根据所述第一相对位置与所述第二相对位置之间的差异,确定所述虚拟现实头显设备软件是生成人眼可观测立体图像的结果,其中,所述虚拟现实头显设备软件用于根据预存的所述测试图像生成对应的一对左眼图像和右眼图像。
8.根据权利要求7所述的装置,其特征在于,所述第一确定模块包括:
第一确定子模块,用于根据每组特征点位置,确定所述左眼特征点与所述左眼图像的第一边框之间的第一间距,以及所述右眼特征点与所述右眼图像的第二边框之间的第二间距;其中,所述第一边框和所述第二边框都为左边框;或者,所述第一边框和所述第二边框都为右边框;
第二确定子模块,用于计算所述第一间距和所述第二间距之间的间距差。
9.根据权利要求8所述的装置,其特征在于,所述第二确定模块包括:
第三确定子模块,用于在根据任一组特征点位置确定的所述第一间距和所述第二间距之间的间距差不在预设范围内时,确定所述虚拟现实头显设备软件不能满足生成人眼可观测立体图像的条件。
10.根据权利要求8所述的装置,其特征在于,所述装置还包括:
第三确定模块,用于在获取到的N对左眼图像和右眼图像中,根据每组特征点位置确定的所述第一间距和所述第二间距之间的间距差均在预设范围内时,确定所述虚拟现实头显设备软件能满足生成人眼可观测立体图像的条件,其中,所述N为大于等于1的整数。
11.根据权利要求7-10任一项所述的装置,其特征在于,所述装置还包括:
第三获取模块,用于获取所述测试图像;
第四获取模块,用于对所述测试图像进行图像分析,获取所述预设颜色值。
12.根据权利要求10所述的装置,其特征在于,所述N对左眼图像和右眼图像中的每对左眼图像和右眼图像都不同。
13.一种测试虚拟现实头显设备软件的装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
从虚拟现实头显设备中多次获取测试图像对应的一对左眼图像和右眼图像;
对所述一对左眼图像和右眼图像进行图像分析,获取多组特征点位置,其中,每组特征点位置包括左眼特征点在所述左眼图像中的第一位置和右眼特征点在所述右眼图像中的第二位置;每组所述左眼特征点和所述右眼特征点具有相同的预设颜色值,所述预设颜色值包括所述测试图像中各像素点的颜色值中具有唯一性的颜色值;
针对每组所述左眼特征点和所述右眼特征点,根据每组特征点位置,确定所述左眼特征点在所述左眼图像中的第一相对位置与所述右眼特征点在所述右眼图像中的第二相对位置之间的差异;所述第一相对位置包括所述左眼特征点相对所述左眼图像中第一预设参考位置的相对距离,所述第二相对位置包括所述右眼特征点相对所述右眼图像中第二预设参考位置的相对距离;
根据所述第一相对位置与所述第二相对位置之间的差异,确定所述虚拟现实头显设备软件生成人眼可观测立体图像的结果,其中,所述虚拟现实头显设备软件用于根据预存的所述测试图像生成对应的一对左眼图像和右眼图像。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610798359.7A CN106325521B (zh) | 2016-08-31 | 2016-08-31 | 测试虚拟现实头显设备软件的方法及装置 |
JP2017504419A JP6560740B2 (ja) | 2016-08-31 | 2016-11-29 | バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアをテストする方法、装置、プログラム、及び記録媒体 |
RU2017126372A RU2665901C1 (ru) | 2016-08-31 | 2016-11-29 | Способ и аппаратура для тестирования программного обеспечения головного устройства отображения виртуальной реальности |
PCT/CN2016/107714 WO2018040328A1 (zh) | 2016-08-31 | 2016-11-29 | 测试虚拟现实头显设备软件的方法及装置 |
EP17181232.4A EP3291548A1 (en) | 2016-08-31 | 2017-07-13 | Method and apparatus for testing a virtual reality head display device |
US15/689,675 US10178379B2 (en) | 2016-08-31 | 2017-08-29 | Method and apparatus for testing virtual reality head display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610798359.7A CN106325521B (zh) | 2016-08-31 | 2016-08-31 | 测试虚拟现实头显设备软件的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106325521A CN106325521A (zh) | 2017-01-11 |
CN106325521B true CN106325521B (zh) | 2018-06-29 |
Family
ID=57787721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610798359.7A Active CN106325521B (zh) | 2016-08-31 | 2016-08-31 | 测试虚拟现实头显设备软件的方法及装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10178379B2 (zh) |
EP (1) | EP3291548A1 (zh) |
JP (1) | JP6560740B2 (zh) |
CN (1) | CN106325521B (zh) |
RU (1) | RU2665901C1 (zh) |
WO (1) | WO2018040328A1 (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106325521B (zh) | 2016-08-31 | 2018-06-29 | 北京小米移动软件有限公司 | 测试虚拟现实头显设备软件的方法及装置 |
CN106932904A (zh) | 2017-02-27 | 2017-07-07 | 阿里巴巴集团控股有限公司 | 虚拟现实头戴设备 |
CN107396082B (zh) * | 2017-07-14 | 2020-04-21 | 歌尔股份有限公司 | 一种图像数据的处理方法和装置 |
CN107657654B (zh) * | 2017-09-21 | 2021-11-23 | 北京小鸟看看科技有限公司 | 一种虚拟现实场景渲染方法、装置和头戴显示设备 |
CN110134222A (zh) * | 2018-02-02 | 2019-08-16 | 上海集鹰科技有限公司 | 一种vr头显定位瞄准系统及其定位瞄准方法 |
US11189054B2 (en) * | 2018-09-28 | 2021-11-30 | Apple Inc. | Localization and mapping using images from multiple devices |
US11004256B2 (en) * | 2019-05-08 | 2021-05-11 | Citrix Systems, Inc. | Collaboration of augmented reality content in stereoscopic view in virtualized environment |
US11687427B2 (en) * | 2020-04-03 | 2023-06-27 | T-Mobile Usa, Inc. | Multiple XR extended reality application validation process and testing |
CN113138560B (zh) * | 2021-04-12 | 2024-06-25 | 维沃移动通信有限公司 | 终端控制方法、装置、设备及可读存储介质 |
US11886227B1 (en) | 2022-07-13 | 2024-01-30 | Bank Of America Corporation | Virtual-reality artificial-intelligence multi-user distributed real-time test environment |
CN115278203A (zh) * | 2022-07-20 | 2022-11-01 | 广州视享科技有限公司 | 虚拟现实设备的校准方法、校准装置以及校准机器人 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103597823A (zh) * | 2012-02-16 | 2014-02-19 | 索尼公司 | 发送装置、发送方法和接收器装置 |
CN104272732A (zh) * | 2012-05-09 | 2015-01-07 | 富士胶片株式会社 | 图像处理装置、方法及摄像装置 |
CN105867606A (zh) * | 2015-12-15 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 虚拟现实头盔中的图像获取方法、装置及虚拟现实头盔 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3089306B2 (ja) * | 1993-08-26 | 2000-09-18 | 松下電器産業株式会社 | 立体画像撮像及び表示装置 |
JPH08211332A (ja) * | 1995-02-03 | 1996-08-20 | Olympus Optical Co Ltd | 立体映像再生装置 |
JPH099300A (ja) * | 1995-06-26 | 1997-01-10 | Matsushita Electric Ind Co Ltd | 立体表示装置 |
JP3579162B2 (ja) * | 1995-06-29 | 2004-10-20 | 松下電器産業株式会社 | 立体cg画像生成装置 |
JP3673217B2 (ja) * | 2001-12-20 | 2005-07-20 | オリンパス株式会社 | 映像表示装置 |
JP2003199126A (ja) * | 2001-12-25 | 2003-07-11 | Canon Inc | 画像処理装置およびその方法 |
RU2322771C2 (ru) * | 2005-04-25 | 2008-04-20 | Святослав Иванович АРСЕНИЧ | Стереопроекционная система |
JP4689639B2 (ja) * | 2007-04-25 | 2011-05-25 | キヤノン株式会社 | 画像処理システム |
JP5172991B2 (ja) * | 2011-05-30 | 2013-03-27 | 株式会社東芝 | 三次元映像処理装置および鑑賞位置チェック方法 |
WO2012172719A1 (ja) * | 2011-06-16 | 2012-12-20 | パナソニック株式会社 | ヘッドマウントディスプレイおよびその位置ずれ調整方法 |
CN102427542B (zh) * | 2011-09-28 | 2014-07-30 | 深圳超多维光电子有限公司 | 一种立体图像处理方法、图像处理装置和相应的终端设备 |
US9325962B2 (en) * | 2012-10-30 | 2016-04-26 | Korea Advanced Institute Of Science And Technology | Method and system for creating dynamic floating window for stereoscopic contents |
US9118911B2 (en) * | 2013-02-07 | 2015-08-25 | Delphi Technologies, Inc. | Variable disparity three-dimensional (3D) display system and method of operating the same |
BR112015024910A2 (pt) * | 2013-03-26 | 2017-07-18 | Seiko Epson Corp | dispositivo de exibição montado na cabeça, método de controle de dispositivo de exibição montado na cabeça e sistema de exibição |
WO2015066037A1 (en) * | 2013-10-28 | 2015-05-07 | Brown University | Virtual reality methods and systems |
CN103595990B (zh) * | 2013-10-30 | 2015-05-20 | 清华大学 | 运动感知的双目立体视频舒适度获取方法 |
US9942532B2 (en) * | 2015-11-03 | 2018-04-10 | International Business Machines Corporation | Eye-fatigue reduction system for head-mounted displays |
CN105787980B (zh) * | 2016-03-17 | 2018-12-25 | 北京牡丹视源电子有限责任公司 | 一种检测虚拟现实显示设备视场角的方法及系统 |
CN106325521B (zh) | 2016-08-31 | 2018-06-29 | 北京小米移动软件有限公司 | 测试虚拟现实头显设备软件的方法及装置 |
-
2016
- 2016-08-31 CN CN201610798359.7A patent/CN106325521B/zh active Active
- 2016-11-29 JP JP2017504419A patent/JP6560740B2/ja active Active
- 2016-11-29 RU RU2017126372A patent/RU2665901C1/ru active
- 2016-11-29 WO PCT/CN2016/107714 patent/WO2018040328A1/zh active Application Filing
-
2017
- 2017-07-13 EP EP17181232.4A patent/EP3291548A1/en not_active Ceased
- 2017-08-29 US US15/689,675 patent/US10178379B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103597823A (zh) * | 2012-02-16 | 2014-02-19 | 索尼公司 | 发送装置、发送方法和接收器装置 |
CN104272732A (zh) * | 2012-05-09 | 2015-01-07 | 富士胶片株式会社 | 图像处理装置、方法及摄像装置 |
CN105867606A (zh) * | 2015-12-15 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 虚拟现实头盔中的图像获取方法、装置及虚拟现实头盔 |
Also Published As
Publication number | Publication date |
---|---|
EP3291548A1 (en) | 2018-03-07 |
US20180063517A1 (en) | 2018-03-01 |
JP6560740B2 (ja) | 2019-08-14 |
JP2018536300A (ja) | 2018-12-06 |
RU2665901C1 (ru) | 2018-09-04 |
CN106325521A (zh) | 2017-01-11 |
WO2018040328A1 (zh) | 2018-03-08 |
US10178379B2 (en) | 2019-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106325521B (zh) | 测试虚拟现实头显设备软件的方法及装置 | |
CN105279499B (zh) | 年龄识别方法及装置 | |
CN104850828B (zh) | 人物识别方法及装置 | |
CN105550637B (zh) | 轮廓点定位方法及装置 | |
CN105653032B (zh) | 显示调整方法及装置 | |
CN106231419A (zh) | 操作执行方法及装置 | |
CN103973979B (zh) | 一种配置拍摄参数的方法及装置 | |
CN104036240B (zh) | 人脸特征点的定位方法和装置 | |
CN105138962A (zh) | 图像显示方法及装置 | |
CN109359056A (zh) | 一种应用程序测试方法及装置 | |
CN104063865B (zh) | 分类模型创建方法、图像分割方法及相关装置 | |
CN107730350A (zh) | 基于增强现实的产品展示方法、装置及存储介质 | |
CN110853095B (zh) | 相机定位方法、装置、电子设备及存储介质 | |
CN104484858B (zh) | 人物图像处理方法及装置 | |
CN104077585B (zh) | 图像校正方法、装置及终端 | |
CN104503888A (zh) | 告警提示的方法及装置 | |
CN110796005A (zh) | 在线教学监控的方法、装置、电子设备及介质 | |
CN109840939A (zh) | 三维重建方法、装置、电子设备及存储介质 | |
CN107944367A (zh) | 人脸关键点检测方法及装置 | |
CN107958223A (zh) | 人脸识别方法及装置、移动设备、计算机可读存储介质 | |
CN107092359A (zh) | 虚拟现实视角重定位方法、装置及终端 | |
CN108280434A (zh) | 显示信息的方法和装置 | |
CN104881342B (zh) | 终端测试方法及装置 | |
US20210321071A1 (en) | Method and apparatus for synthesizing omni-directional parallax view, and storage medium | |
CN111932604A (zh) | 人耳特征距离测量的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |