CN113747141A - 一种电子设备和深度图像的拍摄方法 - Google Patents
一种电子设备和深度图像的拍摄方法 Download PDFInfo
- Publication number
- CN113747141A CN113747141A CN202010617723.1A CN202010617723A CN113747141A CN 113747141 A CN113747141 A CN 113747141A CN 202010617723 A CN202010617723 A CN 202010617723A CN 113747141 A CN113747141 A CN 113747141A
- Authority
- CN
- China
- Prior art keywords
- target object
- depth
- resolution
- camera
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 117
- 230000003287 optical effect Effects 0.000 claims abstract description 240
- 230000004927 fusion Effects 0.000 claims abstract description 68
- 230000005540 biological transmission Effects 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 4
- 230000008878 coupling Effects 0.000 claims 1
- 238000010168 coupling process Methods 0.000 claims 1
- 238000005859 coupling reaction Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 100
- 238000013461 design Methods 0.000 description 49
- 238000009826 distribution Methods 0.000 description 46
- 238000003384 imaging method Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 19
- 230000009471 action Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 9
- 238000007726 management method Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 239000007787 solid Substances 0.000 description 6
- 238000013507 mapping Methods 0.000 description 5
- 238000010295 mobile communication Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000009792 diffusion process Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 229920001621 AMOLED Polymers 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000010363 phase shift Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000004026 adhesive bonding Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 238000003466 welding Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007526 fusion splicing Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Measurement Of Optical Distance (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本申请提供一种电子设备和深度图像的拍摄方法,涉及光学电子器件技术领域。可以提升电子设备拍摄得到的深度图像的分辨率,使得电子设备拍摄得到的深度图像可用于进行高精度三维建模。该电子设备包括:光发射装置、光接收装置和处理器。处理器用于向致动装置发送驱动信号,致动装置用于按照驱动信号,带动图像传感器或者接收透镜移动至预设位置。光发射装置用于发射第一光信号,第一光信号照射在目标对象上被其反射为第二光信号。光接收透镜用于接收第二光信号并将其折射为第三光信号。处理器可以根据第三光信号获取预设位置对应的深度图像。处理器对N个不同预设位置对应的深度图像进行图像融合生成目标对象的深度图像,N≥2,N为正整数。
Description
本申请要求于2020年05月29日提交中国专利局、申请号为202010482139.X、申请名称为“一种电子设备和深度图像的拍摄方法”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请实施例涉及光学电子器件技术领域,尤其涉及一种电子设备和深度图像的拍摄方法。
背景技术
三维(three-dimensional,3D)相机(又称为深度相机)拍摄目标对象,不仅可以得到该目标对象(如人脸)的二维图像,还可以得到该目标对象的深度信息。其中,目标对象的深度信息可以包括该目标对象上的各个特征与相机之间的距离,可以表征该目标对象的三维特征。基于此,3D相机可以利用其拍摄得到的目标对象的二维图像和深度信息,实现人脸识别和三维地图重建等功能。
相比于结构光和双目3D成像方案,现有的3D相机中主要使用的成像方案是时间飞行技术(time of flight,ToF)成像方案。该成像方案中,3D相机可以包括光发射装置和ToF接收装置,该ToF接收装置可以包括接收透镜和单光子探测器(single-photon avalanchediode,SPAD)阵列。具体的,光发射装置可用于向目标对象发射光信号,该光信号经过目标对象的反射可被ToF接收装置中的接收透镜可以采集到。接收透镜可将目标对象反射的光折射为折射光。该折射光可照射在TOF接收装置中的SPAD阵列上,该SPAD阵列中可以包括多个SPAD探测器,SPAD探测器可以根据接收到的折射光生成飞行时间分布直方图。每个SPAD探测器生成的飞行时间分布直方图组合在一起形成该目标对象的二维图像。其中,飞行时间分布直方图记录的是SPAD探测器在对应时间发生雪崩电流的次数,也就是SPAD探测器接收到反射光的时间。光发射装置可以记录发射光信号的时间,ToF接收装置可以根据飞行时间分布直方图记录接收到折射光的时间,这样,ToF接收装置可以根据发射光信号的时间和接收到折射光的时间,确定出3D相机与目标对象之间的距离。则3D相机得到的深度图像包括目标对象的深度信息。
由于3D相机中ToF接收装置的硬件限制,现有的3D相机拍摄的深度图像的分辨率普遍低于640*480。也就是说,使用现有的3D相机无法得到高精度的深度图像。因此,使用现有3D相机拍摄的照片就不能进行高精度的三维建模。由此可见,采用3D相机如何获取高精度的深度图像是亟待解决的技术问题。
发明内容
本申请提供一种电子设备和深度图像的拍摄方法,可以提升电子设备拍摄得到的深度图像的分辨率,使得电子设备拍摄得到的深度图像可用于进行高精度三维建模。
为实现上述技术目的,本申请采用如下技术方案:
第一方面,本申请提供一种电子设备。该电子设备可以包括:光发射装置、光接收装置和处理器。其中,光接收装置包括图像传感器、接收透镜和驱动装置。
本申请提供的电子设备中的致动装置可以带动图像传感器或者接收透镜移动。其中,处理器用于向致动装置发送驱动信号,该驱动信号用于指示致动装置带动图像传感器或者接收透镜移动至预设位置。因此,致动装置接收到处理器发送的驱动信号之后,可以按照驱动信号,带动图像传感器或者接收透镜移动至预设位置。
当致动装置带动图像传感器或者接收透镜移动至预设位置时,可以使用本申请提供的电子设备获取目标对象的深度图像。光发射装置用于发射第一光信号,第一光信号可以照射在目标对象上,并被目标对象反射为第二光信号。光接收装置中的接收透镜可以接收到目标对象反射的第二光信号,并将第二光信号折射为第三光信号。第三光信号可以传播至图像传感器并被第三图像传感器接收。并且,处理器可以根据图像传感器接收到的第三光信号的时间,以及光发射装置发射第一光信号的时间,得到电子设备与目标对象的深度信息,从而生成预设位置对应的深度图像。进一步的,处理器还可以控制驱动装置带动图像传感器或者接收透镜移动至其他预设位置,并获得其他预设位置的深度图像,则处理器可以对N个不同的预设位置对应的深度图像进行图像融合,生成目标对象的深度图像。其中,N≥2,N为正整数。
可以理解的,由于目标对象的深度图像是通过N个不同预设位置对应的深度图像,经图像融合得到的。图像融合是一种可以提升原图像(即N个不同预设位置对应的深度图像)的分辨率的技术,则电子设备得到的目标对象的深度图像的分辨率是高于电子设备在预设位置得到的深度图像的。也就是说,可通过多次移动电子设备的图像传感器或者接收透镜。以采集到多张低分辨率的深度图像;然后,对该多张低分辨率的深度图像进行图像融合。便可以得到高分辨率的深度图像。这样,可以提升电子设备拍摄得到的深度图像的分辨率。
结合第一方面,在一种可能的设计方式中,处理器还可以用于获取目标分辨率,并根据目标分辨率和电子设备的分辨率,确定N个不同的预设位置。
结合第一方面,另一种可能的设计方式中,处理器还可以用于,如果电子设备的分辨率小于目标分辨率,则可以根据目标分辨率和电子设备的分辨率,确定出N个不同的预设位置。
其中,目标分辨率是电子设备生成的目标对象的深度图像的分辨率,如果目标分辨率大于电子设备的分辨率,则电子设备可通过多次移动电子设备中图像传感器或者接收透镜的位置以得到不同预设位置的多个深度图像。这样,可以通过图像融合的方式得到分辨率为目标分辨率(高分辨率)的深度图像。因此,在生成目标对象的深度图像之前,可以根据目标分辨率和电子设备的分辨率确定出采集深度图像时图像传感器或者接收透镜的N个不同的预设位置,以便电子设备根据N个不同的预设位置调整图像传感器或者接收透镜的位置。
结合第一方面,另一种可能的设计方式中,致动装置可以与图像传感器固定连接,则驱动信号用于指示致动装置带动图像传感器移动至预设位置。
其中,图像传感器的第一面用于接收上述第三光信号,致动装置与图像传感器的第二面固定连接。当致动装置接收到驱动信号,致动装置通过与图像传感器的第二面固定连接,从而带动图像传感器移动。
结合第一方面,另一种可能的设计方式中,光接收装置还可以包括印刷电路板。图像传感器可以设置在印刷电路板上,那么,图像传感器的第二面可以与印刷电路板固定连接,致动装置与印刷电路板固定连接。因此,致动装置接收到驱动信号,可以按照驱动信号带动印刷电路板移动,以使得印刷电路板带动图像传感器移动至预设位置。
结合第一方面,另一种可能的设计方式中,致动装置还可以与接收透镜固定连接。那么,驱动信号可以用于指示致动装置带动接收透镜移动至预设位置。
其中,接收透镜可以包括镜筒和至少一个透镜。至少一个透镜设置在镜筒中,致动装置与镜筒固定连接。当致动装置接收到驱动信号,致动装置通过与接收透镜的镜筒连接,带动接收透镜移动。
结合第一方面,另一种可能的设计方式中,致动装置为微机电系统MEMS,或者,致动装置为电机。
可以理解的,致动装置的作用是带动图像传感器或者接收透镜移动。因此,致动装置可以是在处理器的驱动信号的作用下发生移动即可,此处仅是对致动装置可能的设计的说明。
结合第一方面,另一种可能的设计方式中,图像传感器为单光子探测器SPAD阵列;SPAD阵列中包括多个SPAD。
结合第一方面,另一种可能的设计方式中,上述的电子设备可以是3D相机。
可以理解的,电子设备可以生成深度图像。因此,电子设备可以是一种3D相机,电子设备还可以包括3D相机。
第二方面,本申请还提供另一种电子设备。电子设备包括:光发射装置、光接收装置、可调反射装置以及处理器。处理器,用于向可调反射装置发送驱动信号,驱动信号用于指示可调反射装置转动至预设位置。可调反射装置,用于按照驱动信号,转动至预设位置。光发射装置,用于发射第一光信号,第一光信号照射在目标对象上,并被目标对象反射为第二光信号,第二光信号射向可调反射装置。光接收装置,用于接收被可调反射装置反射的第二光信号。处理器,用于根据光接收装置接收到第二光信号的时间,以及光发射装置发射第一光信号的时间,获得预设位置对应的第一深度图像。处理器,还用于对N个不同的预设位置对应的第一深度图像进行图像融合,生成目标对象的深度图像,N≥2,N为正整数。
在本申请中,电子设备可以通过多次转动可调反射装置至不同的预设位置,采集多张与预设位置对应的目标对象的预设区域的深度图像,然后通过融合多张目标对象的预设区域的深度图像,获得高分辨率的目标对象的深度图像。
其中,光接收装置包括接收透镜和图像传感器。由于可调反射装置设置于电子设备的接收光路中,光接收装置的接收透镜的视场经可调反射装置反射后投射在目标对象上,目标对象被接收透镜的视场覆盖的区域为目标对象的图像采集区域,光接收装置采集目标对象的图像采集区域的反射光线。因此,接收透镜的视场在目标对象上的覆盖区域与可调反射装置的位置相对应,也即目标对象的图像采集区域与可调反射装置的位置相对应,当可调反射装置转动、其位置发生变化时,目标对象的图像采集区域发生对应变化,故而电子设备能够在可调反射装置处于不同位置时,采集目标对象的不同区域的反射光线,形成不同的深度图像。
结合第二方面,一种可能的设计方式中,处理器,还用于获取目标分辨率,并根据目标分辨率和电子设备的分辨率,确定N个不同的预设位置。
结合第二方面,另一种可能的设计方式中,处理器,还用于若电子设备的分辨率小于目标分辨率,则根据目标分辨率和电子设备的分辨率,确定N个不同的预设位置。
结合第二方面,另一种可能的设计方式中,可调反射装置可以包括驱动部件和安装于驱动部件的反射镜,驱动部件用于按照驱动信号,带动反射镜转动至预设位置。
结合第二方面,另一种可能的设计方式中,驱动部件可以为微机电系统MEMS,或者,驱动部件为电机。
结合第二方面,另一种可能的设计方式中,驱动部件可以具有零位(0°,0°)和四个停留角度,四个停留角度分别为(﹢α,﹢β)、(﹢α,-β)、(-α,﹢β)及(-α,-β),其中,α和β为正数值角度,四个停留角度与四个预设位置一一对应。
由于可调反射装置在运行时具有四个确定的预设位置,驱动部件具有四个确定的停留角度,驱动部件通过双轴、四档位设计,使得可调反射装置的运动可实现稳定的开环控制,电子设备无需设计闭环反馈电路来确认可调反射装置的实际位置,省去了处理器对可调反射装置的位置的判定过程,使得电子设备的控制电路简单、可靠,保证了系统的鲁棒性。其中,驱动部件可以设置限位机构,以稳定、准确地停留于预设的停留角度,使得可调反射装置准确停留于预设位置。
结合第二方面,另一种可能的设计方式中,电子设备还包括分光装置,分光装置包括两个光路路径,其中一个光路路径用于使第一光信号投射至可调反射装置,第一光信号被可调反射装置反射后照射在目标对象上,另一个光路路径用于使被可调反射装置反射后的第二光信号进入光接收装置。
结合第二方面,另一种可能的设计方式中,分光装置的两个光路路径可以包括光透射路径和光反射路径。第一光信号经分光装置的光透射路径投射至可调反射装置,被可调反射装置反射的第二光信号经光反射路径进入光接收装置;或者,第一光信号经分光装置的光反射路径投射至可调反射装置,被可调反射装置反射的第二光信号经光透射路径进入光接收装置。
结合第二方面,另一种可能的设计方式中,可调反射装置处于原点位置时,接收透镜的视场经可调反射装置反射后,可以覆盖目标对象的原点区域,原点区域的面积小于目标对象的面积,第一光信号被原点区域反射为第二光信号。
结合第二方面,另一种可能的设计方式中,电子设备还包括RGB相机,RGB相机的视场覆盖目标对象,接收透镜的视场角可以小于RGB相机的视场角。
结合第二方面,另一种可能的设计方式中,接收透镜的视场角可以小于或等于60°。
结合第二方面,另一种可能的设计方式中,图像传感器可以为单光子探测器SPAD阵列;SPAD阵列中包括多个SPAD。
结合第二方面,另一种可能的设计方式中,电子设备可以为3D相机。
第三方面,本申请还提供一种深度图像的拍摄方法,该方法可以应用于上述第一方面及其任一种可能的设计方式中的电子设备。该方法可以包括:电子设备控制图像传感器或者接收透镜移动至预设位置之后,电子设备发射第一光信号,并接收目标对象反射的第二光信号。其中,电子设备在获取预设位置的深度图像时,电子设备发射第一光信号,第一光信号可以照射在目标对象上,被目标对象反射为第二光信号,第二光信号可以被接收透镜折射为第三光信号,第三光信号可以被图像传感器采集到。因此,电子设备可以根据发射第一光信号的时间和接收到第三光信号的时间,获得预设位置对应的第一深度图像。其中,电子设备控制光发射装置发射第一光信号,控制光接收装置的图像传感器接收第三光信号。
电子设备可以控制图像传感器或者接收透镜移动至N个预设位置中的每个预设位置,这样,电子设备就可以获取N个不同的预设位置对应的深度图像,对这N个深度图像进行图像融合以生成目标对象的深度图像。其中,N≥2,N为正整数。
结合第三方面,在一种可能的设计方式中,电子设备可以获得N个不同的预设位置对应的第一深度图像。具体的,电子设备可以控制图像传感器或者接收透镜,分别移动至N个预设位置中的每个预设位置,以采集N个第一深度图像。其中,N个第一深度图像与N个预设位置一一对应。
结合第三方面,在一种可能的设计方式中,电子设备在生成目标对象的深度图像之前,还可以获取待生成深度图像的目标分辨率,电子设备可以根据电子设备的分辨率和目标分辨率,确定用于采集第一深度图像的N个预设位置。
结合第三方面,在一种可能的设计方式中,上述获取待生成的目标对象的深度图像的目标分辨率时,该电子设备可以根据拍摄模式确定生成深度图像的目标分辨率,或者,电子设备可以接收到用户输入的分辨率,将用户输入的分辨率作为待生成的深度图像的分辨率。
结合第三方面,在一种可能的设计方式中,在根据目标分辨率和电子设备的分辨率确定用于采集第一深度图像的N个预设位置,可以包括:若电子设备的分辨率小于目标分辨率,则电子设备可以根据电子设备的分辨率和目标分辨率确定出用于采集第一深度图像的N个预设位置。
结合第三方面,另一种可能的设计方式中,根据电子设备的分辨率和目标分辨率,确定用于采集第一深度图像的N个预设位置,可以包括:计算目标分辨率与电子设备的分辨率的比值,并根据计算得到的比值确定采集N个第一深度图像。则电子设备可以从预先配置的M个预设位置中选择N个不同的预设位置。其中,M为正整数,且M≥N。
结合第三方面,另一种可能的设计方式中,对N个第一深度图像进行图像融合,生成目标对象的深度图像,可以包括:电子设备对N个第一深度图像进行微步超分,将微步超分的N个第一深度图像拼接融合,得到目标对象的深度图像。
结合第三方面,另一种可能的设计方式中,电子设备对N个第一深度图像进行图像融合,生成目标对象的深度图像,可以包括:对N个第一深度图像进行直接拼接融合,得到目标对象的深度图像。
结合第三方面,另一种可能的设计方式中,第二光信号为第一光信号被目标对象的预设区域反射形成的光线,其中,可调反射装置处于预设位置时,接收透镜的视场经可调反射装置反射后,覆盖的目标对象的预设区域,预设区域的面积小于目标对象的面积。
结合第三方面,另一种可能的设计方式中,接收透镜的视场角小于或等于60°。
第四方面,本申请还提供一种深度图像的拍摄方法,该方法可以应用于上述第二方面及其任一种可能的设计方式中的电子设备。该方法可以包括:控制可调反射装置转动至预设位置;控制光发射装置发射第一光信号;其中,第一光信号照射在目标对象上,被目标对象反射为第二光信号,第二光信号射向可调反射装置;控制光接收装置接收被可调反射装置反射的第二光信号;根据光接收装置接收到第二光信号的时间,以及光发射装置发射第一光信号的时间,获得预设位置对应的第一深度图像;对N个不同的预设位置对应的第一深度图像进行图像融合,生成目标对象的深度图像;其中,N≥2,N为正整数。
结合第四方面,一种可能的设计方式中,方法还可以包括:控制可调反射装置分别转动至N个预设位置中的每个预设位置,以采集N个第一深度图像;其中,N个第一深度图像与N个预设位置一一对应。
结合第四方面,另一种可能的设计方式中,方法还可以包括:获取待生成目标对象的深度图像的目标分辨率;根据电子设备的分辨率和目标分辨率,确定用于采集第一深度图像的N个预设位置。
结合第四方面,另一种可能的设计方式中,获取待生成的深度图像的目标分辨率,包括:根据拍摄模式确定待生成深度图像的目标分辨率,或者,接收到用户输入的分辨率,将用户输入的分辨率作为待生成深度图像的目标分辨率。
结合第四方面,另一种可能的设计方式中,根据电子设备的分辨率和目标分辨率,确定用于采集第一深度图像的N个预设位置,包括:若电子设备的分辨率小于目标分辨率,则根据电子设备的分辨率和目标分辨率,确定用于采集第一深度图像的N个预设位置。
结合第四方面,另一种可能的设计方式中,根据电子设备的分辨率和目标分辨率,确定用于采集第一深度图像的N个预设位置,包括:计算目标分辨率与电子设备的分辨率的比值,并根据计算得到的比值确定采集N个深度图像;从预先配置的M个预设位置中选择N个不同的预设位置,其中,M为正整数,且M≥N。
结合第四方面,另一种可能的设计方式中,电子设备对N个第一深度图像进行图像融合,生成目标对象的深度图像,包括:对N个第一深度图像进行微步超分,将微步超分的N个第一深度图像拼接融合,得到目标对象的深度图像。
结合第四方面,另一种可能的设计方式中,电子设备对N个第一深度图像进行图像融合,生成目标对象的深度图像,包括:对N个第一深度图像进行直接拼接融合,得到目标对象的深度图像。
结合第四方面,另一种可能的设计方式中,第二光信号为第一光信号被目标对象的预设区域反射形成的光线,其中,可调反射装置处于预设位置时,接收透镜的视场经可调反射装置反射后,覆盖的目标对象的预设区域,预设区域的面积小于目标对象的面积。
结合第四方面,另一种可能的设计方式中,接收透镜的视场角小于或等于60°。
第五方面,本申请还提供一种芯片系统,该芯片系统应用于电子设备;芯片系统可以包括一个或多个接口电路和一个或多个处理器。接口电路和处理器通过线路互联,接口电路用于从电子设备的存储器接收信号,并向处理器发送该信号,该信号包括存储器中存储的计算机指令。当处理器执行上述的计算机指令时,电子设备可以执行第三方面及其任一种可能的设计方式中的方法或第四方面及其任一种可能的设计方式中的方法。
第六方面,本申请还提供一种计算机可读存储介质,包括计算机指令,当计算机指令在电子设备上运行时,使得电子设备执行第三方面及其任一种可能的设计方式中的方法或第四方面及其任一种可能的设计方式中的方法。
第七方面,本申请还提供一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行第三方面及其任一种可能的设计方式中的方法或第四方面及其任一种可能的设计方式中的方法。
可以理解的是,上述本申请提供的第二方面及其任一种可能的实施方式中的电子设备,第三方面及其任一种可能的实施方式中的方法,第四方面及其任一种可能的实施方式中的方法,第五方面的芯片系统、第六方面的计算机可读存储介质,第七方面的计算机程序产品所能达到的有益效果,可参考如第一方面及其任一种可能的设计方式中的有益效果,此处不再赘述。
附图说明
图1为本申请提供的一种目标对象的示意图;
图2为本申请实施例提供的一种目标对象的深度图像的示意图;
图3为本申请实施例提供的一种ToF相机中像素点和SPAD探测器对应的示意图;
图4为本申请实施例提供的一种飞行时间分布直方图;
图5A为本申请实施例提供的一种3D相机的结构示意图;
图5B为本申请实施例提供的另一3D相机的结构示意图;
图6A为本申请实施例提供的一种3D相机的硬件结构示意图;
图6B为本申请实施例提供的一种3D相机的SPAD探测器与目标对象反射的光在3D相机中形成的图像的对应示意图;
图6C为本申请实施例提供的另一3D相机的硬件结构示意图;
图6D为本申请实施例提供的另一3D相机的SPAD探测器与目标对象反射的光在3D相机中形成的图像的对应示意图;
图6E为本申请实施例提供的另一3D相机的硬件结构示意图;
图6F为本申请实施例提供的另一3D相机的硬件结构示意图;
图7为本申请实施例提供的一种深度图像示意图;
图8为本申请实施例提供的一种接收透镜相对于图像传感器的位置示意图;
图9A为本申请实施例提供另一ToF相机中像素点和SPAD探测器对应的示意图;
图9B为本申请实施例提供的另一目标对象的深度图像的示意图;
图10A为本申请实施例提供另一ToF相机中像素点和SPAD探测器对应的示意图;
图10B为本申请实施例提供的另一目标对象的深度图像的示意图;
图11A为本申请实施例提供另一ToF相机中像素点和SPAD探测器对应的示意图;
图11B为本申请实施例提供的另一目标对象的深度图像的示意图;
图12A为本申请实施例提供另一ToF相机中像素点和SPAD探测器对应的示意图;
图12B为本申请实施例提供的另一目标对象的深度图像的示意图;
图13为本申请实施例提供的另一目标对象的深度图像的示意图;
图14为本申请实施例提供的深度图像的拍摄方法的流程图;
图15A为本申请实施例提供的一种ToF相机在获取深度图像的示意图;
图15B为本申请实施例提供的一种致动装置的标定方法的流程示意图;
图16为本申请实施例提供的一种基于深度相机的自动对焦方法;
图17为本申请实施例提供的一种电子设备的结构示意图;
图18为本申请实施例提供的另一种3D相机的结构示意图;
图19为图18所示3D相机在一些实施例中的硬件结构示意图;
图20为图19所示3D相机的另一结构示意图;
图21A为本申请实施例提供的一种可调反射装置的结构示意图;
图21B为图21A所示可调反射装置处于另一使用状态时的部分结构示意图;
图22为本申请实施例提供的另一种可调反射装置的结构示意图;
图23A为图19所示3D相机的SPAD探测器阵列与目标对象的对应关系图;
图23B为图19所示3D相机的采集的目标对象的深度图像示意图;
图24为图19所示3D相机在另一使用状态的硬件结构示意图;
图25为图19所示3D相机的另一结构示意图;
图26A为图24所示3D相机的SPAD探测器阵列与目标对象的一种对应关系图;
图26B为图24所示3D相机的采集的目标对象的一种深度图像示意图;
图27A为图19所示3D相机的SPAD探测器阵列与目标对象的另一对应关系图;
图27B为图19所示3D相机的采集的目标对象的另一深度图像示意图;
图28A为图19所示3D相机的SPAD探测器阵列与目标对象的另一对应关系图;
图28B为图19所示3D相机的采集的目标对象的另一深度图像示意图;
图29A为图19所示3D相机的SPAD探测器阵列与目标对象的另一对应关系图;
图29B为图19所示3D相机的采集的目标对象的另一深度图像示意图;
图30为图18所示3D相机在另一些实施例中的硬件结构示意图;
图31为图30所示3D相机的另一结构示意图;
图32A为图30所示3D相机的SPAD探测器阵列与目标对象的对应关系图;
图32B为图30所示3D相机的采集的目标对象的深度图像示意图;
图33为图18所示3D相机在另一些实施例中的硬件结构示意图;
图34为本申请实施例提供的一种目标对象的区域划分方式;
图35为图30所示3D相机在另一使用状态中的硬件结构示意图;
图36A为图35所示3D相机的SPAD探测器阵列与目标对象的一种对应关系图;
图36B为图35所示3D相机的采集的目标对象的一种深度图像示意图;
图37A为图30所示3D相机的SPAD探测器阵列与目标对象的另一对应关系图;
图37B为图30所示3D相机的采集的目标对象的另一深度图像示意图;
图38A为图30所示3D相机的SPAD探测器阵列与目标对象的另一对应关系图;
图38B为图30所示3D相机的采集的目标对象的另一深度图像示意图;
图39A为图30所示3D相机的SPAD探测器阵列与目标对象的另一对应关系图;
图39B为图30所示3D相机的采集的目标对象的另一深度图像示意图;
图40为图30所示3D相机形成的一种目标对象的深度图像;
图41为图18所示3D相机在另一些实施例中的硬件结构示意图;
图42为图41所示3D相机的分光装置在一些实施例中的结构示意图;
图43为图18所示3D相机在另一些实施例中的硬件结构示意图;
图44为本申请实施例提供的另一种深度图像的拍摄方法;
图45A为本申请实施例提供的一种目标对象与ToF相机的图像采集视场的关系示意图;
图45B为本申请实施例提供的一种反射界面转动时的光路变化示意图;
图46为本申请实施例提供的一种目标对象的区域划分示意图;
图47为本申请实施例提供的另一种ToF相机在获取深度图像的示意图;
图48为本申请实施例提供的一种可调反射装置的标定方法的流程示意图;
图49为本申请实施例提供的一种基于深度相机的自动对焦方法;
图50为本申请实施例提供的一种具备dToF相机的电子设备的结构示意图。
具体实施方式
以下,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
本申请实施例提供一种获取深度图像的方法及3D相机。示例性的,3D相机的成像方案可以是ToF成像方案。因此,该3D相机也可以称为ToF相机。其中,ToF相机可以分为间接飞行时间(indirect time of flight,iToF)相机和直接飞行时间(direct timeofflight,dToF)相机。其中,虽然iToF相机和dToF相机的成像方案均为ToF成像方案;但是,iToF相机和dToF相机计算拍摄对象的深度信息的方式不同。
为了便于理解,本申请实施例这里介绍iToF相机和dToF相机的工作原理:
(1)iToF相机。
iToF相机可以计算光发射装置发射的光信号的波形与光接收装置(即ToF接收装置)接收到的光信号的波形的相位偏移量;然后,根据该相位偏移量计算目标对象与iToF相机之间的距离。
为了保证测量的准确性,iToF相机可以通过多次测量求平均值的方式,计算目标对象与iToF相机之间的距离。其中,iToF相机的光接收装置接收的光信号和光发射装置发射的光信号均为正弦波信号。具体的,iToF相机的光接收装置设置有基于正向偏压的光电二极管和测量电路,该光接收装置可以通过光电二极管测量上述相位偏移量。测量电路可以根据该相位偏移量计算iToF相机与目标对象之间的距离。
(2)dToF相机。
dToF相机的光接收装置(即ToF接收装置)中设置有单光子探测器(single-photonavalanchediode,SPAD)阵列,该阵列中可以包括多个SPAD。其中,一旦有光子传播至SPAD的表面,SPAD就可以检测到该光子(即光信号)。也就是说,SPAD用于检测光信号。在dToF相机中SPAD阵列与高精度的时间数字转换电路(time digtal converter,TDC)连接,TDC用于确定SPAD接收到光信号的时间,然后根据TDC接收到光信号的时间,计算出dToF相机的光发射装置发射光信号的时间与SPAD接收到光信号的时间的时间差。这样一来,dToF相机便可以根据该时间差计算出目标对象与dToF相机的距离。
其中,相比于iToF相机,dToF相机有高灵敏度、低功耗等优势。但是,由于SPAD的制作工艺的限制,dToF相机的SPAD阵列中包括的SPAD探测器的数量一般较少。因此,目前的dToF相机生成的深度图像的分辨率普遍低于480*320。
也就是说,在dToF相机获取目标对象的图像时,图像的分辨率受到SPAD阵列中SPAD的数量影响,使得dToF相机拍摄得到的深度图像的分辨率较低。因此,使用现有3D相机拍摄的深度图像不能进行高精度的三维建模。
请参考图1,图1为本申请实施例提供的一种目标对象的示意图,其中,灰色区域表示目标对象中距离ToF相机10米的部分,白色区域表示目标对象中距离ToF相机5米的部分。可以理解的,ToF相机的SPAD阵列中包括多个SPAD探测器,每个SPAD探测器可以对应一个像素点。在ToF相机生成目标对象的深度图像时,该SPAD探测器得到的距离值为该像素点的深度信息,ToF相机生成的深度图像的分辨率与包括深度信息的像素点的个数相关。例如,SPAD阵列中包括的SPAD探测器的数量为480*320,则ToF相机生成的深度图像中的像素点为480*320,即ToF相机生成的深度图像的分辨率为480*320。假设ToF相机的SPAD阵列中SPAD探测器的数量为2*2,那么,该ToF相机生成的深度图像的分辨率为2*2。示例性的,采用SPAD探测器的数量为2*2的ToF相机拍摄图1所示的目标对象的深度图像时,可得到图2所示的深度图像。其中,图2中的每个矩形表示一个像素点,图2中所示的灰色区域表示对应像素点的深度信息为10米,图2中所示的白色区域表示对应像素点的深度信息为5米。如果使用图2所示的深度图像进行三维建模,则三维建模得到的模型的结构与目标对象原本的结构(如图1所示的结构)存在较大差异,也就是说,使用图2的深度图像进行三维建模得到的模型与目标对象的差异较大。
本申请实施例这里介绍,使用SPAD探测器的数量为2*2的ToF相机拍摄图1所述的目标对象,得到图2所示的深度图像的原因。
其中,光接收装置中包括SPAD阵列,SPAD阵列中的一个SPAD探测器可以接收到目标对象反射的光信号。ToF相机中的处理器可以根据光发射装置发射光的时间和SPAD探测器接收到目标对象反射的光信号的时间,计算得到目标对象的一个点到ToF相机的距离值。上述距离值为ToF相机生成的深度图像中的一个像素中的深度信息。其中,SPAD阵列中的SPAD探测器可以生成该像素点的飞行时间分布直方图,处理器可以根据每个像素点对应的飞行时间分布直方图生成该目标对象的二维图像。可以理解,ToF相机的将生成的二维图像与SPAD阵列得到的各个像素点的深度信息结合,便可得到目标对象的深度图像。
需要说明的,图像传感器的作用是将目标对象反射的光信号转换为电信号,处理器可以根据图像传感器转换的电信号生成目标对象的二维图像。本申请实施例中,ToF相机的每个SPAD探测器在接收到目标对象反射的光信号时会产生雪崩电流,处理器可以记录每次SPAD探测器发生雪崩电流的时间,从而生成每个像素点的飞行时间分布直方图。处理器可以将每个像素点的飞行时间分布直方图组合在一起构成目标对象的二维图像。因此,本申请实施例中ToF相机的图像传感器就是SPAD阵列。以下说明中ToF相机的图像传感器可以理解为ToF相机的SPAD阵列。
如图3所示,ToF相机SPAD探测器的数量为2*2,ToF相机的每个像素点对应一个SPAD探测器,如像素点1对应SPAD探测器A、像素点2对应SPAD探测器B、像素点3对应SPAD探测器C,像素点4对应SPAD探测器D。当使用该ToF相机拍摄图1的目标对象时,ToF相机的像素点与目标对象反射的光在ToF相机中形成的图像的对应关系如图3所示。
如图3所示,像素点1仅包括灰色区域(即图1中目标对象中距离ToF相机10米的部分);而像素点2、像素点3和像素点4不仅包括灰色区域,还包括白色区域(即图1中目标对象中距离ToF相机5米的部分)。理论上,像素点2、像素点3和像素点4中对应的SPAD探测器中可以两次接收到目标对象反射的光信号。ToF相机中的处理器可以根据SPAD两次接收到光信号的不同时间,计算得到两个距离值(如10米和5米)。虽然ToF相机拍摄图1所示目标对象时,像素点2、像素点3和像素点4对应的SPAD探测器可能会两次接收到目标对象反射的光信号,使得ToF相机中的处理器计算得到两个距离值;但是,在生成深度图像时,每个像素点只会有一个深度信息。例如,处理器可以将计算的一个像素点对应的多个距离值的平均值作为该像素点的深度信息;或者,处理器可以将计算的一个像素点对应的多个距离值中的最小值作为该像素点的深度信息;或者,处理器还可以将计算的一个像素点对应的多个距离值中的最大值作为该像素点的深度信息;或者,处理器还可以将计算的一个像素点对应的多个距离值中出现次数最多的距离值作为该像素点的深度信息;或者,处理器还可以将计算的一个像素点对应的多个距离值中出现多于预设次数的多个数值中的最小值、或最大值、或平均值作为该像素点的深度信息。如图2所示,为将像素点2、像素点3和像素点4对应的多个距离值中的出现次数较多的多个数值中的最小值(5米)作为对应像素点的深度信息,所得到的深度图像。
具体地说,在ToF相机中SPAD阵列与TDC连接。当有光子(光信号)传播至SPAD阵列中SPAD探测器上,该SPAD探测器会产生雪崩电流,TDC可以记录SPAD探测器上产生雪崩电流的时间。处理器可以将TDC记录SPAD产生雪崩电流的时间,作为SPAD接收到反射的光信号的时间。处理器通过获取光发射装置发射光的时间,以及TDC记录SPAD产生雪崩电流的时间计算目标对象上的点与dToF相机之间的距离值。
其中,当SPAD探测器多次接收到目标对象反射的光子,TDC可以记录到多次SPAD发生雪崩电流的时间。处理器可以根据TDC记录的每次雪崩电流的时间计算出一个距离值,处理器可以根据多次计算得到的距离值生成该SPAD探测器的飞行时间分布直方图,如图4所示,为ToF相机中某一个SPAD探测器对应的像素点的飞行时间分布直方图。如图4中,飞行时间分布直方图中横坐标表示时间,纵坐标表示该时间对应的雪崩电流出现的次数。其中,图4中横坐标的时间是SPAD接收到目标对象反射的光子的时间。处理器可以根据SPAD接收到目标对象反射的光子的时间计算目标对象上的点与dToF相机之间的距离值,如通过z=c*t/2计算目标对象上的点与dToF相机之间的距离值,其中,c表示光子在空气中传播的速度,即光速。t表示光发射装置发射光信号的时间和SPAD探测器接收到目标对象反射的光信号的时间差,z表示目标对象上的点与dToF相机之间的距离值。
可以理解的,像素点1中的深度信息是根据探测器A的飞行时间分布直方图确定的,像素点2中的深度信息是根据探测器B的飞行时间分布直方图确定的,像素点3中的深度信息是根据探测器C的飞行时间分布直方图确定的,像素点4中的深度信息是根据探测器D的飞行时间分布直方图确定的。其中,如图3所示,像素点1仅包括灰色区域,即图1所示的目标对象中距离ToF相机10米的部分,并且,探测器A的飞行时间分布直方图中雪崩电流出现的次数最多时间对应的距离值为10米,因此,通过探测器A的飞行时间分布直方图计算得到的距离值为10米,则像素点1中的深度信息为10米。如图3所示,像素点2和像素点3均包括的目标对象一半白色区域一半灰色区域,即图1所示目标对象中距离ToF相机5米的部分和10米的部分,并且,探测器B和探测器C的飞行时间分布直方图中雪崩电流出现的次数较多的时间对应的距离值包括5米和10米,处理器可以将计算得到的距离值中最小的距离值作为该像素点的深度信息,则像素点2和像素点3中的深度信息均为5米。如图3所示,像素点4包括1/4的灰色区域和3/4的白色区域,即图1所示目标对象中距离ToF相机5米的部分和10米的部分,并且,探测器B和探测器C的飞行时间分布直方图中雪崩电流出现的次数较多的时间对应的距离值为5米,则像素点4中的深度信息为5米。如此,采用SPAD探测器的数量为2*2的ToF相机拍摄图1所示的目标对象的深度图像时,可以得到如图2所示的目标对象的深度图像。
本申请实施例中所述的ToF相机是dToF相机。为了解决使用现有3D相机拍摄的深度图像的分辨率较低,导致该深度图像不能进行高精度的三维建模的问题。
本申请实施例提供一种电子设备,该电子设备中包括dToF相机,可通过将多次移动dToF相机的镜头或图像传感器所采集到的多张低分辨率的深度图像,进行图像融合以得到高分辨率的深度图像的方式,提升dToF相机拍摄得到的深度图像的分辨率。因此,通过本申请实施例的方法,ToF相机可拍摄得到高分辨率的深度图像,高分辨率的深度图像可用于进行高精度的三维建模。
需要说明的是,本申请实施例中提供的电子设备也可以是3D相机。因此,本申请实施例以电子设备是3D相机为例,对本申请实施例中电子设备的具体结构进行说明。
请参考图5A和图5B所示,图5A为本申请实施例提供的一种3D相机的结构示意图,图5B为本申请实施例提供的另一种3D相机的结构示意图。该3D相机500可以包括:光发射装置51、光接收装置52和处理器53。其中,光接收装置52可以包括:致动装置521、图像传感器522和接收透镜523。
其中,光发射装置51用于向目标对象发射第一光信号。光发射装置51发射的第一光信号照射到目标对象上,由目标对象反射为第二光信号。光接收装置52中的接收透镜523可以接收到目标对象反射的第二光信号。该第二光信号经过接收透镜523,可折射为第三光信号。该第三光信号可被图像传感器522采集到的,使目标对象在图像传感器522上成像,得到二维图像。
由于本申请实施例中的3D相机的图像传感器522为SPAD阵列,则图5A和图5B所示的图像传感器522中可以包括多个SPAD探测器。其中,图像传感器522中SPAD探测器的数量会影响3D相机500拍摄得到的深度图像的分辨率。SPAD探测器的数量越多,3D相机500生成的深度图像的分辨率越高,SPAD探测器的数量越少,3D相机500生成的深度图像的分辨率越低。
其中,上述第二光信号经过接收透镜523折射为第三光信号后,该第三光信号还可传播至图像传感器522。图像传感器522中的SPAD探测器可接收到该第三光信号。处理器53可根据光发射装置51发射第一光信号的时间,以及每个SPAD探测器接收到第三光信号的时间,计算目标对象上各个点与3D相机的距离,得到目标对象的深度信息。
然后,处理器53可将图像传感器522采集的二维图像和各个像素点的深度信息结合,便可得到目标对象的深度图像。
在一些实施例中,3D相机还可以包括驱动电路,驱动电路分别与处理器53和致动装置521连接。其中,处理器53向驱动电路发送控制信号,驱动电路将控制信号转换为驱动信号,并将驱动信号传输给致动装置521,以驱动致动装置521带动图像传感器522或接收透镜523移动。
本申请实施例中,可以采用以下两种实现方式中的任一种实现方式,采集多张低分辨率的深度图像。
在实现方式(1)中,如图5A所示,致动装置521连接图像传感器522。该致动装置521可带动图像传感器522移动,以采集多张低分辨率的深度图像。请参考图6A,图6A示出图5A所示的3D相机500的硬件结构组成示意图。如图6A所示,致动装置521连接图像传感器522,该致动装置521可带动图像传感器522移动。
其中,致动装置521连接图像传感器522,具体可以为:致动装置521可以与图像传感器522固定连接。例如,图像传感器522可以通过胶粘或焊接等方式与致动装置521固定连接。
示例性的,图像传感器522可以设置在印刷电路板上,致动装置521与印刷电路板固定连接。如此,致动装置521移动时可带动印刷电路板移动,从而带动印刷电路板上的图像传感器522移动。
具体的,处理器53可向致动装置521发送驱动信号,该驱动信号用于指示致动装置521带动图像传感器522移动至预设位置1。例如,处理器53可向驱动电路发送控制信号,该驱动电路可将控制信号转换为驱动信号,并向致动装置521发送该驱动信号。致动装置521接收到该驱动信号后,可按照该驱动信号的指示发生移动。其中,致动装置521按照该驱动信号的指示发生移动,可带动图像传感器522移动至预设位置1。
图像传感器522移动至预设位置1后,3D相机的处理器53可控制光发射装置51发射第一光信号。光发射装置51发射的第一光信号照射到目标对象上,由目标对象反射为第二光信号。光接收装置52中的接收透镜523可以接收到目标对象反射的第二光信号。该第二光信号经过接收透镜523,可折射为第三光信号。该第三光信号可被图像传感器522采集到的,使目标对象在图像传感器522上成像,得到上述预设位置1对应的二维图像。二维图像也就是每个SPAD探测器得到的飞行时间分布直方图组合在一起的图像,处理器可以根据每个飞行时间分布直方图计算得到该像素点的深度信息,这样,就可以得到图像传感器522移动至预设位置1时的深度图像。
然后,3D相机可执行上述流程,得到其他预设位置(如预设位置2、预设位置3和预设位置4)对应的目标对象的深度图像。也就是说,使用3D相机拍摄目标对象的深度图像时,可以多次移动图像传感器522,以便拍摄得到多张深度图像。即使3D相机的分辨率较低,使得该多张深度图像的分辨率较低。但是,本申请实施例中,处理器53可以对多张低分辨率图像进行图像融合以得到高分辨率的深度图像。
此处以致动装置521连接图像传感器522移动,图像传感器522由原点位置移动至预设位置1时,3D相机生成的深度图像的区别。
示例性的,3D相机生成如图1所示的目标对象的深度图像为例。假设图6A表示图像传感器522处于原点位置,那么,3D相机的像素点与目标对象反射的光在3D相机中形成的图像的对应关系如图6B所示。如图6C表示致动装置521带动图像传感器522移动至预设位置1,则3D相机的像素点与目标对象反射的光在3D相机中形成的图像的对应关系如图6D所示。其中,接收透镜523将目标对象反射的光传播至图像传感器522(即SPAD阵列),使得3D相机可以根据SPAD阵列接收到的光信号生成目标对象的深度图像。由于致动装置521带动SPAD阵列移动至预设位置1,使得接收透镜523与SPAD阵列的相对位置发生改变,因此,目标对象反射的第二光信号经过接收透镜523可折射为第三光信号,第三光信号传播至SPAD阵列的位置也会发生改变。具体的,目标对象反射的光束I经过接收透镜523可折射为光束i,光束i可传播至SPAD阵列并被SPAD探测器采集到的。当SPAD阵列处于原点位置,光束i可传播至SPAD阵列中的SPAD探测器D,如图6B中的S1为光束i传播至SPAD探测器D时被SPAD探测器D采集的位置。当SPAD阵列处于预设位置1,接收透镜523与SPAD阵列的相对位置发生改变,光束i依然可传播至SPAD阵列中的SPAD探测器D,但是,光束i传播至SPAD探测器D的位置发生了改变。如图6D中的S2为光束i传播至SPAD探测器D时被SPAD探测器D采集的位置。
可以理解的,致动装置521带动图像传感器522移动,接收透镜523与图像传感器的相对位置发生改变,使得图像传感器522采集到的目标对象反射的光束的位置也发生改变。因此,3D相机在图像传感器522处于原点位置生成的深度图像和图像传感器522处于预设位置1的深度图像不同。
在实现方式(2)中,如图5B所示,致动装置521连接接收透镜523。该致动装置521移动时可带动接收透镜523移动,以采集多张低分辨率深度图像。请参考图6E,图6E示出图5B所示的3D相机500的硬件结构示意图。如图6E所示,致动装置521连接接收透镜523,致动装置521移动时可带动接收透镜523移动。
其中,接收透镜523可以是一个透镜也可以是由多个透镜组合形成的。接收透镜523中的透镜设置在镜筒中。致动装置521可以与接收透镜523固定连接,具体可以为:致动装置521与接收透镜523的镜筒固定连接。例如,接收透镜523的镜筒可以与致动装置521通过胶粘或焊接等方式连接。
具体的,致动装置521可以是微机电系统(micro-electro-mechanical system,MEMS),或者,致动装置521还可以是电机。致动装置521可以带动与其连接的接收透镜523移动即可。
其中,接收透镜523位置的变化如图6F所示,当致动装置521带动接收透镜523移动时,接收透镜523可以从原点位置移动至预设位置1。
需要说明的是,致动装置521带动接收透镜523移动,使得接收透镜523和图像传感器522的相对位置发生改变,因此,3D相机生成的深度图像发生改变。具体的说,接收透镜523移动之后,目标对象反射的第二光信号经过接收透镜523可折射为第三光信号,第三光信号传播至图像传感器的位置也会发生改变。对于第三光信号的位置的改变的原理在上述图像传感器的实施方式已经进行说明,此处不与赘述。
具体的,处理器可以向致动装置521发送驱动信号,该驱动信号用于指示致动装置521带动接收透镜523移动至预设位置1。例如,处理器53可以向驱动电路发送控制信号,该驱动电路可以将控制信号转换为驱动信号,并向致动装置521发送该驱动信号。致动装置521接收到该驱动信号后,可以按照该驱动信号的指示发生移动。其中,致动装置521按照驱动信号的指示发生移动,可带动接收透镜523移动至预设位置1。
其中,接收透镜523移动至预设位置1后,3D相机得到在预设位置1对应的目标对象的深度图像。可以理解的,3D相机获取预设位置1对应的目标对象的深度图像的方式与上述实现方式(1)中获取预设位置1对应的目标对象的深度图像的方式相同,为了减少重复,此处不予赘述。
然后,3D相机可执行上述流程,得到其他预设位置(如预设位置2、预设位置3和预设位置4)对应的目标对象的深度图像。处理器53可以对多张低分辨率图像进行图像融合以得到高分辨率的深度图像。
为了便于本领域技术人员理解,本申请实施例这里介绍“通过将多次移动dToF相机的镜头或图像传感器所采集到多张低分辨率的深度图像,进行图像融合以得到高分辨率的深度图像”的原理。
此处以ToF相机的光接收装置中致动装置可以带动接收透镜(或称为镜头)移动为例,对上述“通过将多次移动dToF相机的镜头或图像传感器所采集到多张低分辨率的深度图像,进行图像融合以得到高分辨率的深度图像”进行说明。
示例性的,假设ToF相机包括的SPAD探测器的数量为2*2,则ToF相机生成的深度图像的分辨率为2*2。如果想要拍摄得到分辨率为4*4的深度图像,即ToF相机所要得到的深度图像的目标分辨率为4*4,则ToF相机可以拍摄4张低分辨率(如2*2的分辨率)的深度图像,并对这4张深度图像进行图像融合,使得像素点1中包括4个深度信息。这样,便可以得到高分辨率(如4*4的分辨率)的深度图像。
其中,由于ToF相机生成的深度图像的分辨率为2*2。如果使用ToF相机拍摄目标对象的深度图像,要得到分辨率为4*4(目标分辨率)的深度图像;那么,ToF相机生成的深度图像中需要包括4*4个像素点,每个像素点包括对应的深度信息,也就是说,ToF相机生成的深度图像中需要包括4*4个深度信息。这样,ToF相机得到的目标对象的深度图像就是分辨率为4*4的深度图像。由于ToF相机包括4个SPAD探测器,每个SPAD探测器对应一个像素点。假设使用该ToF相机生成分辨率为4*4的深度图像,ToF相机拍摄4张分辨率为2*2的深度图像,将相同像素点对应的深度信息组合在一起,增加深度图像中包括的深度信息的数量。也就是说,4张分辨率为2*2的深度图像中像素点1的深度信息组合在一起,像素点2的深度信息组合在一起,像素点3的深度信息组合在一起,像素点4的深度信息组合在一起,使得组合后的深度图像中包括4*4个深度信息。这样,通过低分辨率图像融合提高了深度图像的分辨率,即将低分辨率的深度图像融合得到了高分辨率(分辨率为4*4)的深度图像。请参考图7所示的深度图像示意,如图7所示,像素点1包括的深度信息为A1、A2、A3和A4区域的深度信息;像素点2包括的深度信息为B1、B2、B3和B4区域的深度信息;像素点3包括的深度信息为C1、C2、C3和C4区域的深度信息;像素点4包括的深度信息为D1、D2、D3和D4区域的深度信息。
可以理解的,一个像素点包括的4个深度信息是该像素点中目标对象的4个区域的深度信息。如图7所示,像素点1的左上角对应区域的深度信息为A1,像素点1右上角对应区域的深度信息为A2,像素点1的左下角对应区域的深度信息为A3,像素点1右下角对应区域的深度信息为A4。
可以理解的,当ToF相机中的接收透镜的位置发生移动,则ToF相机的图像传感器采集的二维图像会发生变化,且处理器计算得到的深度信息也会发生变化。也就是说,ToF相机中的接收透镜的位置发生移动,ToF相机所采集的深度图像会发生变化。本申请实施例中,ToF相机中的接收透镜的位置发生移动之后,使得ToF相机可以针对目标对象的每个区域分别采集该目标对象在该区域的深度图像,ToF相机对采集得到的目标对象的不同区域的深度图像进行图像融合,就可以得到高分辨率的深度图像。
其中,为了得到4*4的分辨率的深度图像,ToF相机需要针对目标对象的不同位置,采集对应位置的深度图像。本申请实施例中,可以通过调整接收透镜的位置,以针对接收透镜的不同位置,采集对应位置的深度图像。
示例性的,请参考图8,为ToF相机拍摄目标对象时,接收透镜相对于图像传感器的位置示意图。如图8所示,矩形框81用于表示图像传感器的位置,原点位置(X0,Y0)用于表示接收透镜移动之前的位置,预设位置1(X1,Y1)、预设位置2(X2,Y2)、预设位置3(X3,Y3)和预设位置4(X4,Y4)为接收透镜将要移动的目标位置。也就是说,ToF相机可以通过致动装置以调整接收透镜的位置,使得接收透镜可以从原点位置开始依次移动至预设位置1、预设位置2、预设位置3和预设位置4。其中,ToF相机通过致动装置移动接收透镜至预设位置1后,ToF相机可采集到如图9B中(a)所示的分辨率为2*2的深度图像。ToF相机通过致动装置移动接收透镜至预设位置2后,ToF相机可采集到如图10B中(a)所示的分辨率为2*2的深度图像。ToF相机通过致动装置移动接收透镜至预设位置3后,ToF相机采集到如图11B中(a)所示的分辨率为2*2的深度图像。ToF相机可以通过致动装置移动接收透镜至预设位置4后,ToF相机采集到如图12B中(a)所示的分辨率为2*2的深度图像。
其中,ToF相机将图9B中(a)所示的深度图像、图10B中(a)所示的深度图像、图11B中(a)所示的深度图像以及图12B中(a)所示的深度图像进行图像融合,得到图13所示的分辨率为4*4的深度图像。
具体的,对上述4张深度图像进行图像融合,将图9B中(a)所示的深度图像、图10B中(a)所示的深度图像、图11B中(a)所示的深度图像以及图12B中(a)所示的深度图像中的像素点1对应的深度信息融合为图7所示的像素点1中的深度信息。图9B中(a)所示的深度图像的像素点1、像素点2、像素点3以及像素点4的深度信息依次对应图7所示的A1区域、B1区域、C1区域以及D1区域中的深度信息;图10B中(a)所示的深度图像的像素点1、像素点2、像素点3以及像素点4的深度信息依次对应图7所示的A2区域、B2区域、C2区域以及D2区域中的深度信息;图11B中(a)所示的深度图像的图像素点1、像素点2、像素点3以及像素点4的深度信息依次对应图7所示的A3区域、B3区域、C3区域以及D3区域中的深度信息;图12B中(a)所示的深度图像的像素点1、像素点2、像素点3以及像素点4的深度信息依次对应图7所示的A4区域、B4区域、C4区域以及D4区域中的深度信息。也就是说,将上述图9B中(b)所示的深度图像;图10B中(b)所示的深度图像;图11B中(b)所示的深度图像以及图12B中(b)所示的深度图像融合,得到如图13所示的深度图像。其中,图13所示的深度图像中包括4*4个深度信息,图13所示的深度图像的分辨率为4*4。
可以理解的,在具体实施中还可以采取其他的图像融合算法生成高分辨率的图像,例如,采用双三插值法、卷积插值法等。
本申请实施例这里介绍ToF相机通过致动装置移动接收透镜至预设位置后,ToF相机可采集到图9B中(a)、图10B中的(a)、图11B中的(a)或图12B中的(a)所示的分辨率为2*2的深度图像的原理。
(1)ToF相机通过致动装置移动接收透镜至预设位置1后,可采集到图9B中(a)所示的分辨率为2*2的深度图像的原理。
具体地说,请参考图9A,其示出当接收透镜移动至图8所示的预设位置1(X1,Y1)时,ToF相机的图像传感器采集的二维图像与ToF相机中SPAD探测器的位置关系示意图。如图9A所示,SPAD探测器A对应于像素点1,SPAD探测器B对应于像素点2,SPAD探测器C对应于像素点3,SPAD探测器D对应于像素点4。二维图像的像素点1、像素点2、像素点3和像素点4仅包括灰色区域(即图1中目标对象中距离ToF相机10米的部分)。因此,像素点1、像素点2、像素点3和像素点4中的深度信息均为10米。当ToF相机中的接收透镜位于预设位置1(X1,Y1)时,ToF相机采集到如图9B中(a)所示的分辨率为2*2的深度图像。
(2)ToF相机通过致动装置移动接收透镜至预设位置2后,可采集到图10B中(a)所示的分辨率为2*2的深度图像的原理。
具体地说,请参考图10A,其示出当接收透镜移动至图8所示的预设位置2(X2,Y2)时,ToF相机的图像传感器采集的二维图像与ToF相机中SPAD探测器的位置关系示意图。如图10A所示,SPAD探测器A对应于像素点1,SPAD探测器B对应于像素点2,SPAD探测器C对应于像素点3,SPAD探测器D对应于像素点4。二维图像的像素点1、和像素点3仅包括灰色区域(即图1中目标对象中距离ToF相机10米的部分);像素点2和像素点4仅包括白色区域(即图1中目标对象中距离ToF相机5米的部分)。因此,像素点1和像素点3中的深度信息均为10米,像素点2和像素点4中的深度信息均为5米。当ToF相机中的接收透镜位于预设位置2(X2,Y2)时,ToF相机采集到如图10B中(a)所示的分辨率为2*2的深度图像。
(3)ToF相机通过致动装置移动接收透镜至预设位置3后,可采集到图11B中(a)所示的分辨率为2*2的深度图像的原理。
具体地说,请参考图11A,其示出当接收透镜移动至图8所示的预设位置3(X3,Y3)时,ToF相机的图像传感器采集的二维图像与ToF相机中SPAD探测器的位置关系示意图。如图11A所示,SPAD探测器A对应于像素点1,SPAD探测器B对应于像素点2,SPAD探测器C对应于像素点3,SPAD探测器D对应于像素点4。二维图像的像素点1、和像素点2仅包括灰色区域(即图1中目标对象中距离ToF相机10米的部分);像素点3和像素点4仅包括白色区域(即图1中目标对象中距离ToF相机5米的部分)。因此,像素点1和像素点2中的深度信息均为10米,像素点3和像素点4中的深度信息均为5米。当ToF相机中的接收透镜位于预设位置3(X3,Y3)时,ToF相机采集到如图11B中(a)所示的分辨率为2*2的深度图像。
(4)ToF相机通过致动装置移动接收透镜至预设位置2后,可采集到图12B中(a)所示的分辨率为2*2的深度图像的原理。
具体地说,请参考图12A,其示出当接收透镜移动至图8所示的预设位置4(X4,Y4)时,ToF相机的图像传感器采集的二维图像与ToF相机中SPAD探测器的位置关系示意图。如图12A所示,SPAD探测器A对应于像素点1,SPAD探测器B对应于像素点2,SPAD探测器C对应于像素点3,SPAD探测器D对应于像素点4。二维图像的像素点1仅包括灰色区域(即图1中目标对象中距离ToF相机10米的部分);像素点2、像素点3和像素点4仅包括白色区域(即图1中目标对象中距离ToF相机5米的部分)。因此,像素点1中的深度信息均为10米,像素点2、像素点3和像素点4中的深度信息均为5米。当ToF相机中的接收透镜位于预设位置4(X4,Y4)时,ToF相机采集到如图12B中(a)所示的分辨率为2*2的深度图像。
需要说明的,本申请实施例这里介绍多张低分辨率深度图像融合以生成高分辨率深度图像的原理。
在一种实现方式中,可以对低分辨率深度图像进行微步超分,将微步超分的低分辨率深度图像拼接融合以得到高分辨率的深度图像。其中,微步超分的意思是按照像素点的个数对低分辨率深度图像进行分割。例如,图9B中(a)所示的深度图像中包括4个像素点,则9B中(a)所示的深度图像可以被分割为4个子区域,分别为像素点1对应的子区域,像素点2对应的子区域,像素点3对应的子区域和像素点4对应的子区域。在进行图像融合时,可以将多张低分辨率深度图像中相同像素点对应的子区域融合为高分辨率深度图像中一个像素点。如将图9B中(a)、图10B中的(a)、图11B中的(a)和图12B中的(a)中的像素点1对应的子区域融合为高分辨率深度图像的像素点1,使得高分辨率深度图像中的一个像素点中包括四个深度信息,这样,提高了高分辨率深度图像中像素点中包括的深度信息的个数,即一个像素点包括4个深度信息。如此,继续对图9B中的(a)、图10B中的(a)、图11B中的(a)和图12B中的(a)所示的深度图像中其他像素点对应的子区域均进行拼接融合,则可以得到包括4*4个深度信息的深度图像(即高分辨率深度图像)。
(1)ToF相机采集预设位置1的深度图像的情况下,对预设位置1的深度图像进行图像融合时,预设位置1的深度图像的深度信息与待生成的高分辨率深度图像的深度信息的对应关系。
其中,当接收透镜被移动至图8所示的预设位置1(X1,Y1)后,ToF相机可采集到图9B中(a)所示的分辨率为2*2的深度图像。由于预设位置1(X1,Y1)位于图8中原点位置左上角,如图9A所示,SPAD探测器A仅可以接收到目标对象左上角区域(即图7所示A1区域)反射的光信号,处理器可以根据SPAD探测器A接收到的光信号生成飞行时间分布直方图。根据SPAD探测器A的飞行时间分布直方图得到的深度信息仅为目标对象左上角区域的深度信息,即图7所示的A1区域的深度信息。SPAD探测器A和像素点1对应,也就是说,像素点1中的深度信息为图7所示的A1区域的深度信息。同理,根据如图9A所示的目标对象的二维图像与SPAD探测器的对应关系的示意图,可以确定出像素点2中的深度信息对应于图7中A2和B1区域的深度信息,像素点3中的深度信息对应于图7中的A3和C1区域对应的深度信息,像素点4中的深度信息对应于图7中的A4、B3、C2和D1区域的深度信息。
可以理解的,在对图9B中(a)所示的深度图像进行分割之后,可以得到四个像素点对应的子区域。在融合之后的深度图像依然包括四个像素点,每个像素点包括四个深度信息,如图7所示,A1、A2、A3和A4区域组成高分辨率深度图像的像素点1;B1、B2、B3和B4区域组成高分辨率深度图像的像素点2;C1、C2、C3和C4区域组成高分辨率深度图像的像素点3;D1、D2、D3和D4区域组成高分辨率深度图像的像素点4。由于预设位置1(X1,Y1)位于图8中原点位置左上角;因此,可以认为:在采用图9B中(a)所示的分辨率为2*2的深度图像进行图像融合时,ToF相机在预设位置1(X1,Y1)采集得到的深度图像中的深度信息是图7所示的深度图像中每个像素点左上角对应区域的深度信息。其中,图9B中(a)的像素点1中的深度信息融合至图7中像素点1(即A1、A2、A3和A4区域),且图9B中(a)的像素点1的深度信息包括图7的像素点1中A1区域;图9B中(a)的像素点2中的深度信息融合至图7中像素点2(即B1、B2、B3和B4区域),且图9B中(a)的像素点2的深度信息包括图7的像素点2中B1区域;图9B中(a)的像素点3中的深度信息融合至图7中像素点3(即C1、C2、C3和C4区域),且图9B中(a)的像素点3的深度信息包括图7的像素点3中C1区域;图9B中(a)的像素点4中的深度信息融合至图7中像素点4(即D1、D2、D3和D4区域),且图9B中(a)的像素点4的深度信息包括图7的像素点4中D1区域。因此,在进行低分辨率深度图像融合的过程中,如图9B中(b)所示,图9B中(a)的像素点1的深度信息作为图7所述的深度图像中A1区域的深度信息,像素点2的深度信息作为图7所述的深度图像中B1区域的深度信息,像素点3的深度信息作为图7所述的深度图像中C1区域的深度信息,像素点4的深度信息作为图7所述的深度图像中D1区域的深度信息。
(2)ToF相机采集预设位置2的深度图像的情况下,对预设位置2的深度图像进行图像融合时,预设位置2的深度图像的深度信息与待生成的高分辨率深度图像的深度信息的对应关系。
其中,当接收透镜被移动至图8所示的预设位置2(X2,Y2)后,ToF相机可采集到如图10B中(a)所示的分辨率为2*2的深度图像。由于预设位置2(X2,Y2)位于图8中原点位置右上角,如图10A所示,SPAD探测器B仅可以接收到目标对象右上角区域(即图7所示B2区域)反射的光信号,处理器可以根据SPAD探测器B接收到的光信号生成飞行时间分布直方图。根据SPAD探测器B的飞行时间分布直方图得到的深度信息仅为目标对象右上角区域的深度信息,即图7所示的B2区域的深度信息。SPAD探测器B和像素点2对应,也就是说,像素点2中的深度信息为图7所示的B2区域的深度信息。同理,根据如图10A所示的目标对象的二维图像与SPAD探测器的对应关系的示意图,可以确定出像素点1中的深度信息对应于图7中A2和B1区域的深度信息,像素点3中的深度信息对应于图7中的A4、B3、C2和D1区域对应的深度信息,像素点4中的深度信息对应于图7中的B4和D2区域的深度信息。
可以理解的,在对图10B中(a)所示的深度图像进行分割之后,可以得到四个像素点对应的子区域。在融合之后的深度图像依然包括四个像素点,每个像素点包括四个深度信息,如图7所示,A1、A2、A3和A4区域组成高分辨率深度图像的像素点1;B1、B2、B3和B4区域组成高分辨率深度图像的像素点2;C1、C2、C3和C4区域组成高分辨率深度图像的像素点3;D1、D2、D3和D4区域组成高分辨率深度图像的像素点4。由于预设位置2(X2,Y2)位于图8中原点位置右上角的位置;因此,可以认为:在采用图10B中(a)所示的分辨率为2*2的深度图像进行图像融合时,ToF相机在预设位置2(X2,Y2)采集得到的深度图像中的深度信息是图7所示的深度图像中每个像素点右上角对应区域的深度信息。其中,图10B中(a)的像素点1中的深度信息融合至图7中像素点1(即A1、A2、A3和A4区域),且图10B中(a)的像素点1的深度信息包括图7的像素点1中A2区域;图10B中(a)的像素点2中的深度信息融合至图7中像素点2(即B1、B2、B3和B4区域),且图10B中(a)的像素点2的深度信息包括图7的像素点2中B2区域;图10B中(a)的像素点3中的深度信息融合至图7中像素点3(即C1、C2、C3和C4区域),且图10B中(a)的像素点3的深度信息包括图7的像素点3中C2区域;图10B中(a)的像素点4中的深度信息融合至图7中像素点4(即D1、D2、D3和D4区域),且图10B中(a)的像素点4的深度信息包括图7的像素点4中D2区域。因此,在进行低分辨率深度图像融合的过程中,如图10B中(b)所示,为图10B中(a)的像素点1的深度信息作为图7所述的深度图像中A2区域的深度信息,像素点2的深度信息作为图7所述的深度图像中B2区域的深度信息,像素点3的深度信息作为图7所述的深度图像中C2区域的深度信息,像素点4的深度信息作为图7所述的深度图像中D2区域的深度信息。
(3)ToF相机采集预设位置3的深度图像的情况下,对预设位置3的深度图像进行图像融合时,预设位置3的深度图像的深度信息与待生成的高分辨率深度图像的深度信息的对应关系。
其中,当接收透镜被移动至图8所示的预设位置3(X3,Y3)后,ToF相机可采集到如图11B中(a)所示的分辨率为2*2的深度图像。由于预设位置3(X3,Y3)位于图8中原点位置左下角,如图11A所示,SPAD探测器C仅可以接收到目标对象左下角区域(即图7所示C3区域)反射的光信号,处理器可以根据SPAD探测器C接收到的光信号生成飞行时间分布直方图。根据SPAD探测器C的飞行时间分布直方图得到的深度信息仅为目标对象左下角区域的深度信息,即图7所示的C3区域的深度信息。SPAD探测器C和像素点3对应,也就是说,像素点3中的深度信息为图7所示的C3区域的深度信息。同理,根据如图11A所示的目标对象的二维图像与SPAD探测器的对应关系,可以确定出像素点1中的深度信息对应于图7中A3和C1区域的深度信息,像素点2中的深度信息对应于图7中的A4、B3、C2和D1区域对应的深度信息,像素点4中的深度信息对应于图7中的C4和D3区域的深度信息。
可以理解的,在对图11B中(a)所示的深度图像进行分割之后,可以得到四个像素点对应的子区域。在融合之后的深度图像依然包括四个像素点,每个像素点包括四个深度信息,如图7所示,A1、A2、A3和A4区域组成高分辨率深度图像的像素点1;B1、B2、B3和B4区域组成高分辨率深度图像的像素点2;C1、C2、C3和C4区域组成高分辨率深度图像的像素点3;D1、D2、D3和D4区域组成高分辨率深度图像的像素点4。由于预设位置3(X3,Y3)位于图8中原点位置左下角的位置;因此,可以认为:在采用图11B中(a)所示的分辨率为2*2的深度图像进行图像融合时,ToF相机在预设位置3(X3,Y3)采集得到的深度图像中的深度信息是图7所示的深度图像中每个像素点左下角对应区域的深度信息。其中,图11B中(a)的像素点1中的深度信息融合至图7中像素点1(即A1、A2、A3和A4区域),且图11B中(a)的像素点1的深度信息包括图7的像素点1中A3区域;图11B中(a)的像素点2中的深度信息融合至图7中像素点2(即B1、B2、B3和B4区域),且图11B中(a)的像素点2的深度信息包括图7的像素点2中B3区域;图11B中(a)的像素点3中的深度信息融合至图7中像素点3(即C1、C2、C3和C4区域),且图11B中(a)的像素点3的深度信息包括图7的像素点3中C3区域;图11B中(a)的像素点4中的深度信息融合至图7中像素点4(即D1、D2、D3和D4区域),且图11B中(a)的像素点4的深度信息包括图7的像素点4中D3区域。因此,在进行低分辨率深度图像融合的过程中,如图11B中(b)所示,为图11B中(a)的像素点1的深度信息作为图7所述的深度图像中A3区域的深度信息,像素点2的深度信息作为图7所述的深度图像中B3区域的深度信息,像素点3的深度信息作为图7所述的深度图像中C3区域的深度信息,像素点4的深度信息作为图7所述的深度图像中D3区域的深度信息。
(4)ToF相机采集预设位置4的深度图像的情况下,对预设位置4的深度图像进行图像融合时,预设位置4的深度图像的深度信息与待生成的高分辨率深度图像的深度信息的对应关系。
其中,当接收透镜被移动至图8所示的预设位置4(X4,Y4)后,ToF相机可采集到如图12B中(a)所示的分辨率为2*2的深度图像。由于预设位置4(X4,Y4)位于图8中原点位置右下角,如图12A所示,SPAD探测器D仅可以接收到目标对象右下角区域(即图7所示B2区域)反射的光信号,处理器可以根据SPAD探测器D接收到的光信号生成飞行时间分布直方图。根据SPAD探测器B的飞行时间分布直方图得到的深度信息仅为目标对象右下角区域的深度信息,即图7所示的B2区域的深度信息。SPAD探测器D和像素点4对应,也就是说,像素点2中的深度信息为图7所示的D4区域的深度信息。同理,根据如图12A所示的目标对象的二维图像与SPAD探测器的对应关系,可以确定出像素点1中的深度信息对应于图7中A4、B3、C2和D1区域的深度信息,像素点2中的深度信息对应于图7中的B4和D2区域对应的深度信息,像素点3中的深度信息对应于图7中的C4和D3区域的深度信息。
可以理解的,在对图12B中(a)所示的深度图像进行分割之后,可以得到四个像素点对应的子区域。在融合之后的深度图像依然包括四个像素点,每个像素点包括四个深度信息,如图7所示,A1、A2、A3和A4区域组成高分辨率深度图像的像素点1;B1、B2、B3和B4区域组成高分辨率深度图像的像素点2;C1、C2、C3和C4区域组成高分辨率深度图像的像素点3;D1、D2、D3和D4区域组成高分辨率深度图像的像素点4。由于预设位置4(X4,Y4)位于图8中原点位置右上角的位置;因此,可以认为:在采用图12B中(a)所示的分辨率为2*2的深度图像进行图像融合时,ToF相机在预设位置4(X4,Y4)采集得到的深度图像中的深度信息是图7所示的深度图像中每个像素点右上角对应区域的深度信息。其中,图12B中(a)的像素点1中的深度信息融合至图7中像素点1(即A1、A2、A3和A4区域),且图12B中(a)的像素点1的深度信息包括图7的像素点1中A4区域;图12B中(a)的像素点2中的深度信息融合至图7中像素点2(即B1、B2、B3和B4区域),且图12B中(a)的像素点2的深度信息包括图7的像素点2中B4区域;图12B中(a)的像素点3中的深度信息融合至图7中像素点3(即C1、C2、C3和C4区域),且图12B中(a)的像素点3的深度信息包括图7的像素点3中C4区域;图12B中(a)的像素点4中的深度信息融合至图7中像素点4(即D1、D2、D3和D4区域),且图12B中(a)的像素点4的深度信息包括图7的像素点4中D4区域。因此,在进行低分辨率深度图像融合的过程中,如图12B中(b)所示,为图12B中(a)的像素点1的深度信息作为图7所述的深度图像中A4区域的深度信息,像素点2的深度信息作为图7所述的深度图像中B4区域的深度信息,像素点3的深度信息作为图7所述的深度图像中C4区域的深度信息,像素点4的深度信息作为图7所述的深度图像中D4区域的深度信息。
综上,将上述图9B中(a)、图10B中的(a)、图11B中的(a)和图12B中的(a)融合,可以得到如图13所示的深度图像。该深度图像中每个像素点包括四个深度信息,该深度图像的分辨率为4*4。
可以理解的,上述图像融合的方式仅是一种示例。在一些实施例中,还可以使用低分辨率深度图像进行直接拼接融合,以得到高分辨率深度图像。
例如,将图9B中的(a)、图10B中的(a)、图11B中的(a)和图12B中的(a)中低分辨率深度图像直接拼接。由于预设位置1(X1,Y1)位于图8中原点位置左上角;因此,可以认为:在采用图9B中(a)所示的深度图像中的深度信息是图7所示的深度图像中像素点1(即A1、A2、A3和A4区域)的深度信息。由于预设位置2(X2,Y2)位于图8中原点位置右上角;因此,可以认为:在采用图10B中(a)所示的深度图像中的深度信息是图7所示的深度图像中像素点2(即B1、B2、B3和B4区域)的深度信息。由于预设位置3(X3,Y3)位于图8中原点位置左下角;因此,可以认为:在采用图11B中(a)所示的深度图像中的深度信息是图7所示的深度图像中像素点3(即C1、C2、C3和C4区域)的深度信息。由于预设位置4(X4,Y4)位于图8中原点位置右下角;因此,可以认为:在采用图9B中(a)所示的深度图像中的深度信息是图7所示的深度图像中像素点4(即D1、D2、D3和D4区域)的深度信息。
具体的,在使用图9B中(a)、图10B中的(a)、图11B中的(a)和图12B中的(a)进行图像融合的过程中,可以将图9B中(a)所示的深度图像拼接在左上角(即像素点1)的区域;可以将图10B中(a)所示的深度图像拼接在右上角(即像素点2)的区域;可以将图11B中(a)所示的深度图像拼接在左下角(即像素点3)的区域;可以将图12B中(a)所示的深度图像拼接在右下角(即像素点4)的区域;从而得到如图13所示的深度图像。
需要说明的,ToF相机也可以设置图像传感器移动,以获取到图像传感器处于不同位置的深度图像。根据相对位置关系,ToF相机中的图像传感器移动可以达到与接收透镜相同的技术效果,此处将不再对移动图像传感器的情况进行说明。
本申请实施例中提供的3D相机中的接收透镜或图像传感器可以移动,每次移动接收透镜和图像传感器之后,3D相机可以采集目标对象的深度图像。这样,3D相机可以采集得到多张深度图像。3D相机对采集得到的多张深度图像进行图像融合可以得到高于原3D相机分辨率的深度图像,也就是说,使用本申请实施例提供的3D相机可以提升深度图像的分辨率。
请参考图14,为本申请实施例提供的一种深度图像的拍摄方法。该方法可以应用于ToF相机。如图14所示,该方法包括步骤101-步骤105。
步骤101:ToF相机获取待生成深度图像的目标分辨率。
示例性的,ToF相机可以接收用户选择的拍摄模式,根据拍摄模式确定待生成深度图像的目标分辨率。
例如,ToF相机接收到用户对拍摄模式中人像模式的选择操作,如果人像模式下ToF相机生成的深度图像的分辨率为1280*720,则ToF相机可以确定待生成的深度图像的目标分辨率为1280*720。或者,ToF相机接收到用户对拍摄模式中远景模式的选择操作,如果远景模式下ToF相机生成的深度图像的分辨率为320*240,则ToF相机可以确定待生成的深度图像的目标分辨率为320*240。
其中,不同的拍摄模式下,ToF相机生成的深度图像的分辨率可以是不同的。例如,ToF相机在人像模式中拍摄得到的深度图像的分辨率高于ToF相机在远景模式中拍摄得到的深度图像的分辨率。ToF相机中的拍摄模式还可以包括景深模式、广角模式等,ToF相机在每种拍摄模式可以生成对应分辨率的深度图像。当ToF相机接收到用户选择的拍摄模式,ToF相机可以获取到待生成的深度图像的目标分辨率。
又示例性的,ToF相机可以接收用户设置的目标分辨率。
例如,ToF相机可以接收用户通过ToF相机的输入设备,如触摸屏或按键等,接收用户输入的目标分辨率。
又例如,ToF相机可以显示多个不同分辨率。如ToF相机可以显示多个分辨率,如640*480、800*600和1092*1080等。然后,ToF相机可接收用户对任一分辨率的选择操作,确定用户选择的分辨率为目标分辨率。
又例如,ToF相机可以显示多个分辨率的等级,每个等级对应一个分辨率。如,一级、二级和三级等。例如,一级对应的分辨率为640*480;二级对应的分辨率为800*600;三级对应的分辨率为1092*1080。然后,ToF相机可接收用户对任一等级的选择操作,确定用户选择的等级对应的分辨率为目标分辨率。
步骤102:ToF相机确定目标分辨率大于ToF相机的分辨率。
示例性的,ToF相机计算目标分辨率和ToF相机的分辨率的差值。假设ToF相机的分辨率为A*B,ToF相机待生成深度图像的目标分辨率为a*b。ToF相机计算(a*b)-(A*B);如果(a*b)-(A*B)>0,则ToF相机确定目标分辨率大于ToF相机的分辨率。
步骤103:ToF相机根据目标分辨率确定待采集的第一深度图像的数量N和接收透镜移动的多个预设位置。
其中,本申请实施例以致动装置与接收透镜连接为例。如图6B所示,致动装置521与接收透镜522连接,致动装置521可带动接收透镜522移动。
示例性的,ToF相机可以计算目标分辨率与ToF相机的分辨率的比值,然后根据计算得到的比值确定待采集的第一深度图像的数量。
假设ToF相机的分辨率为A*B,ToF相机待生成深度图像的目标分辨率为a*b。在一些实施例中,ToF相机可以计算a与A的比值a/A,并计算b与B的比值b/B;然后,ToF相机可以计算a/A与b/B的乘积(a/A)*(b/B),该乘积(a/A)*(b/B)为ToF相机待采集的第一深度图像的数量。例如,ToF相机待生成深度图像的目标分辨率为4*4,ToF相机的分辨率为2*2,则ToF相机计算(4/2)*(4/2)=4。因此,ToF相机待采集的第一深度图像的数量为4张。
在另一种实现方式中,ToF相机可以计算目标分辨率与ToF相机的分辨率的比值,即计算(a*b)/(A*B),计算得到的结果即为ToF相机待采集的第一深度图像的数量。例如,ToF相机待生成深度图像的目标分辨率为4*4,ToF相机的分辨率为2*2,则ToF相机计算(4*4)/(2*2)=4。因此,ToF相机待采集的第一深度图像的数量为4张。
可以理解的,如果目标分辨率与ToF相机的分辨率的比值为分数,则计算目标分辨率与ToF相机的分辨率相除的商,并对得到的商加1的整数作为ToF相机待采集的第一深度图像的数量。
其中,ToF相机中可以预先配置多个预设位置,如图8所示的预设位置1、预设位置2、预设位置3和预设位置4。当ToF相机确定出待采集的第一深度图像的数量,ToF相机可以根据第一深度图像的数量确定接收透镜移动的位置。例如,待采集的第一深度图像的数量为4,则ToF相机可以确定出接收透镜待移动的位置包括预设位置1、预设位置2、预设位置3和预设位置4。
需要说明的,本申请实施例是以致动装置521与接收透镜522连接为例,说明ToF相机确定接收透镜522移动的预设位置。在上述的实现方式(1)中,致动装置521可以与图像传感器523连接,致动装置521可以带动图像传感器523移动。在这种情况下,ToF相机根据目标分辨率确定待采集的第一深度图像的数量N之后,还可以确定出图像传感器523移动的预设位置。由于在ToF相机的图像传感器523和接收透镜522的相对位置关系,致动装置521带动图像传感器523移动可以达到致动装置521带动接收透镜522相同的技术效果,本申请实施例不再赘述致动装置521带动图像传感器523移动采集多个第一深度图像的具体实现。
步骤104:ToF相机分别将接收透镜依次移动至多个预设位置中的每个,并采集接收透镜移动至每个预设位置后目标对象的第一深度图像。
其中,ToF相机将接收透镜移动至一个预设位置后,ToF相机采集得到接收透镜在该预设位置的第一深度图像。ToF相机还可以判断第一深度图像是否采集完成,待ToF相机确定该预设位置的第一深度图像采集完成之后,ToF相机将接收透镜移动至下一个预设位置。
具体的,ToF相机的处理器可以根据当前的位置和预设位置之间的距离值,生成驱动信号,并向驱动电路发送该驱动信号。驱动电路接收到该驱动信号,向致动装置发送该驱动信号。该驱动信号用于指示致动装置带动接收镜头移动至预设位置。其中,致动装置可以按照驱动信号的指示发生移动,可以带动接收透镜移动至预设位置。例如,如图8所示,ToF相机中的接收透镜当前的位置为原点位置,假设预设位置为预设位置1,则处理器可以根据原点位置和预设位置之间的坐标关系,生成驱动信号,并向驱动电路发送该驱动信号。如果原点位置的坐标为(0,0),预设位置1的坐标为(-1,1),坐标关系为预设位置1坐标(-1,1)与原点位置坐标(0,0)在坐标轴上的差值。预设位置1和原点坐标的坐标差值为(-1,1)。处理器根据上述的坐标关系生成驱动信号,并向驱动电路发送驱动信号。驱动电路接收到该驱动信号之后,向致动装置发送该驱动信号,致动装置可以按照驱动信号的作用从原点位置移动至预设位置1。
可以理解的,ToF相机每次采集得到第一深度图像之后,都会判断是否需要继续采集第一深度图像。例如,ToF相机可以判断已采集得到的第一深度图像的数量是否满足待采集的第一深度图像的数量,如果已采集得到的第一深度图像的数量与待采集的第一深度图像的数量相等,则ToF相机已完成全部第一深度图像的采集;如果已采集得到的第一深度图像的数量小于待采集的第一深度图像的数量,则ToF相机继续移动接收透镜的位置并采集第一深度图像。或者,ToF相机可以判断每个接收透镜移动的预设位置是否都对应有采集得到的第一深度图像,如果确定每个接收透镜移动的预设位置都对应有采集得到的第一深度图像,则ToF相机已完成全部第一深度图像的采集;如果存在一个接收透镜移动的预设位置没有对应的采集得到的第一深度图像,则ToF相机移动接收透镜至该预设位置并采集第一深度图像。
步骤105:ToF相机对采集到的多个第一深度图像进行图像融合,得到目标对象的第二深度图像。
ToF相机根据低分辨率图像生成深度图像时,ToF相机可以基于每个低分辨率图像以及该图像对应的采集坐标进行图像融合,以生成高分辨率深度图像。例如,ToF相机可以采用双三插值法、卷积插值法等。
本申请实施例提供的方法中,可通过将多次移动ToF相机的镜头或图像传感器所采集到的多张低分辨率的深度图像,进行图像融合以得到高分辨率的深度图像。该方法可以提升ToF相机拍摄得到的深度图像的分辨率。因此,通过本申请实施例的方法,ToF相机可拍摄得到高分辨率的深度图像,高分辨率的深度图像可用于进行高精度的三维建模。
在上述实施例中,处理器控制接收透镜移动至预设位置之前,处理器可以根据预设的标定信息确定用于驱动致动装置移动的驱动信号。其中,该标定信息可以包括驱动电路中的驱动电压与预设位置的对应关系。例如,接收透镜当前的位置为图8所示的原点位置,驱动电压为(-1V,1V),该驱动电压作为驱动信号,可以驱动致动装置带动接收透镜移动从原点位置移动至预设位置1。
如图15A所示,ToF相机在获取深度图像时,处理器得到飞行时间分布直方图、致动装置的移动信息和致动装置的标定信息,处理器可以根据致动装置的标定信息和致动装置的移动信息确定出该飞行时间分布直方图对应的预设位置,处理器可以根据飞行时间分布直方图以及预设位置生成目标对象在预设位置的深度图像。
需要说明的是,本申请实施例提供的ToF相机可以设置在电子设备中,电子设备中可以安装应用程序,例如,电子设备中安装有相机应用,当电子设备运行相机应用,电子设备可以启动ToF相机,通过ToF相机获取目标对象的深度图像。在一些实施例中,电子设备中还可以安装的其他应用(如,实体建模应用),当电子设备运行实体建模应用,实体建模应用可以调用电子设备中ToF相机生成目标对象的深度图像。其中,电子设备中安装ToF相机,则ToF相机的可以采用上述方法生成深度图像。
请参考图15B,为本申请实施例提供的一种致动装置的标定方法,该方法可以应用于上述ToF相机,该方法也可以应用于具备上述ToF相机的电子设备,如手机。该方法可以包括步骤1101-步骤1106。
需要说明的是,采用ToF相机拍摄测试板(chart),并控制ToF相机中的致动装置移动。其中,ToF相机拍摄得到SPAD阵列每个像素的飞行时间分布直方图,并对每个像素的飞行时间分布直方图求和,计算出目标对象的灰度图,处理器检测灰度图上特征点,以便对ToF相机进行标定。
步骤1101:处理器向致动装置发送驱动信号。
其中,如果ToF相机中包括驱动电路,则处理器向驱动电路发送驱动信号,由驱动电路向致动装置发送驱动信号,使得致动装置在驱动信号的作用下移动。驱动信号可以电压信号,也可以是电流信号。例如,驱动信号是电压信号,如(Vxi,Vyi);驱动信号是电流信号,如(Ix,Iy)。
步骤1102:致动装置在驱动信号的作用下移动,直到致动装置停止移动。
步骤1103:处理器控制光发射装置和光接收装置采集并计算得到目标对象的灰度图。
可以理解的,在对ToF相机进行标定时,是需要确定出致动装置在驱动信号的作用下移动的距离,与ToF相机得到的图像的特征点的坐标的关系,推断出驱动信号作用在致动装置时,致动装置的移动距离与驱动信号的关系。因此,ToF相机不需要拍摄深度图像。
步骤1104:处理器检测灰度图中的特征点的坐标,并存储灰度图。
其中,测试板上包括多个特征点,当ToF相机得到灰度图,处理器可以检测灰度图中每个特征点在该灰度图中的坐标。
步骤1105:处理器判断存储的灰度图数量是否等于预设采集的灰度图的数量。若为是,执行步骤1106;若为否,执行步骤1101。
可以理解的,如果已经存储的灰度图数量等于预设所需灰度图的数量,则所需标定图像采集完毕则不需要再移动致动装置获取灰度图,从而完成对测试板的拍摄。
步骤1106:处理器根据采集到的灰度图中特征点的坐标,以及采集该灰度图像之前的驱动信号,生成该ToF相机的标定信息。
可以理解的,采集得到多张灰度图之后,处理器可以检测出每张灰度图中特征点的坐标。例如,采集得到的第一张灰度图中每个特征点的坐标分别为(x1,y1),(x2,y2),(x3,y3)……和(xn,yn)。可以理解的,当ToF相机得到第一张灰度图,ToF相机的处理器向致动装置发送第二驱动信号,ToF相机的致动装置在驱动信号的作用下移动并采集得到第二张灰度图。ToF相机检测出第二张灰度图中每个特征点的坐标,ToF相机的处理器可以根据第一张灰度图中同一个特征点的坐标变化得到第二驱动信号与致动装置的移动位置的关系。
例如,第一特征点在第一灰度图中的坐标为(1,1),第二驱动信号为(+1v,+1v),ToF相机采集得到的第二灰度图中第一特征点的坐标为(2,2)。则ToF相机可以确定驱动信号为(+1v,+1v)时,致动装置的移动距离为横向向右移动一个单位,纵向向上移动一个单位。
具体的,ToF相机可以采集多张的灰度图以及存储每个灰度图之前的驱动信号,处理器可以使用二阶或三阶的数学模型来拟合致动装置的驱动信号与采集到的深度图像中的特征点坐标变化量的关系,生成标定信息。该标定信息可以用于标定驱动装置的位置,例如,ToF相机可以根据当前采集得到的灰度图中的特征点的坐标,以及需要致动装置移动到的预设位置对应的灰度图中特征点的坐标,确定出致动装置的驱动信号。
请参考图16,图16为本申请实施例提供的一种基于深度相机的自动对焦方法。该方法可以应用于电子设备,该电子设备包括RGB相机(也即彩色相机)和ToF相机。
方法包括:
步骤401:初始化致动装置的位置。也即,处理器控制致动装置,使图像传感器和接收透镜处于原点位置。
步骤402:控制ToF相机采集目标对象的原点深度图像。也即,通过ToF相机采集目标对象的原点区域的反射光线,处理器形成对应的原点深度图像。
步骤403:依据原点深度图像识别目标对象的深度。此时,处理器可以从原点深度图像中进行简单的深度获取,以作为目标对象的初步深度信息。
步骤404:依据目标对象的深度,驱动RGB相机对焦。
在本实施例中,原点深度图像用于提供简单的深度信息,因此自动对焦方法对原点深度图像的分辨率需求很低,ToF相机的图像传感器的分辨率即可满足,因此通过一次成像即可获得原点深度图像。此外,当原点深度图像需求很低时,也可以采用Binning方式读取目标对象的深度。其中,Binning方式是一种图像读出模式,将相邻像元感应的电荷加在一起,以一个像素的模式读出。
可以理解的是,该自动对焦方法主要用于电子设备的RGB相机的初步快速对焦,用于提高RGB相机的对焦效率、降低系统功耗。RGB相机的完整对焦过程还可以结合其他对焦方法实现,本申请对此不做严格限定。
请参考图17,为本申请实施例提供的一种具备dToF相机的电子设备的结构示意图。如图17所示,该电子设备600可以包括处理器601,外部存储器接口602,内部存储器603,充电管理模块604,电源管理模块605,电池606,移动通信模块607,摄像头模块608,dToF摄像头成像模块609和显示模块630。其中,dToF摄像头成像模块609中包括光发射装置610,dToF摄像头接收模块620,致动装置621和驱动电路622。
其中,本申请实施例中的电子设备可以是照相机(例如数码相机)、手机、平板电脑、桌面型、膝上型、手持计算机、笔记本电脑、车载设备、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本,以及蜂窝电话、个人数字助理(personaldigital assistant,PDA)、增强现实(augmented reality,AR)\虚拟现实(virtualreality,VR)设备等,本申请实施例对该电子设备的具体形态不作特殊限制。
处理器601可以包括一个或多个处理单元,例如:处理器601可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(imagesignal processor,ISP),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
其中,控制器可以是电子设备600的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
在一些实施例中,处理器601可以控制dToF摄像头成像模块609中的光发射装置610发射光信号,光信号可以传播至目标对象并被目标对象反射。dToF摄像头接收模块620可以接收目标对象反射的光信号时,处理器601可以根据接收透镜接收到光信号的时间计算目标图像的深度信息。处理器601还可以向驱动电路622发送控制信息,控制信息中可以包括致动装置621的移动距离。
处理器601中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器601中的存储器为高速缓冲存储器。该存储器可以保存处理器601刚用过或循环使用的指令或数据。如果处理器601需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器601的等待时间,因而提高了系统的效率。
在一些实施例中,处理器601可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
可以理解的是,本发明实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对电子设备600的结构限定。在本申请另一些实施例中,电子设备600也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
外部存储器接口602可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备600的存储能力。外部存储卡通过外部存储器接口602与处理器601通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器603可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。处理器601通过运行存储在内部存储器603的指令,从而执行电子设备600的各种功能应用以及数据处理。内部存储器603可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储电子设备600使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器603可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。
充电管理模块604用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。电源管理模块605用于连接电池606,充电管理模块604与处理器601。电源管理模块605接收电池606和/或充电管理模块604的输入,为处理器601,内部存储器603,外部存储器,移动通信模块607和dToF摄像头成像模块609等供电。
移动通信模块607可以为电子设备提供通信传输服务。其中,移动通信模块607可以是集成至少一个通信处理模块的一个或多个器件。
显示模块630用于显示图像,视频等。显示模块630包括显示面板。显示面板可以采用液晶显示屏(liquidcrystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantumdotlight emitting diodes,QLED)等。在一些实施例中,电子设备可以包括1个或N个显示屏,N为大于1的正整数。
摄像头模块608用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,电子设备可以包括1个或N个摄像头模块,N为大于1的正整数。
电子设备可以通过dToF摄像头成像模块609以及处理器等实现拍摄深度图像的功能。dToF摄像头成像模块609中包括光发射装置610,dToF摄像头接收模块620,致动装置621和驱动电路622。
光发射装置610用于发射光信号。光发射装置610可以与处理器601连接,光发射装置610可以接收处理器发出的光发射信号,响应于光发射信号发射光信号。dToF摄像头接收模块620可以包括接收透镜,SPAD阵列和图像传感器,接收透镜可以接收目标对象反射的光信号,SPAD阵列可以作为光接收器件,图像传感器可以响应于目标对象反射的光信号形成目标对象的图像。致动装置621和dToF摄像头接收模块620固定连接,致动装置621与驱动电路连接。驱动电路622可以向致动装置621发送驱动信号,致动装置621在驱动信号的作用下移动。
当电子设备使用dToF摄像头获取深度图像时,可以通过上述的方式获取深度图像。可以理解的,电子设备中可以安装多个应用程序,电子设备中的应用程序可以调用电子设备中的dToF摄像头获取深度图像。例如,电子设备的一个应用在运行的过程中调用了dToF摄像头拍摄深度图像,电子设备可以根据调用该dToF摄像头的应用确定dToF摄像头需要拍摄的深度图像的分辨率。假设该应用为3D建模,则电子设备可以确定dToF摄像头拍摄的深度图像的目标分辨率为640*480。或者,该应用为相机应用,则电子设备可以确定dToF摄像头拍摄的深度图像的目标分辨率为320*240等。
本申请实施例还提供另一种电子设备,该电子设备中包括dToF相机,dToF相机可以通过多次转动可调反射装置,采集到多张低分辨率的深度图像,然后将多张低分辨率的深度图像进行图像融合以得到高分辨率的深度图像的方式,提升dToF相机拍摄得到的深度图像的分辨率。因此,通过本申请实施例的方法,ToF相机可拍摄得到高分辨率的深度图像,高分辨率的深度图像可用于进行高精度的三维建模。
需要说明的是,本申请实施例中提供的电子设备也可以是3D相机。因此,本申请实施例以电子设备是3D相机为例,对本申请实施例中电子设备的具体结构进行说明。以下主要说明本实施例3D相机与前述实施例3D相机的区别,两者相同的大部分技术方案不再赘述。
请一并参考图18和图19所示,图18为本申请实施例提供的另一种3D相机的结构示意图,图19为图18所示3D相机在一些实施例中的硬件结构示意图。
一些实施例中,3D相机700可以包括:光发射装置71、光接收装置72、处理器73以及可调反射装置74。
光发射装置71用于发射第一光信号。示例性的,光发射装置71可以包括光源711和扩散板712(diffuser)。扩散板712用于将点光源扩散为面光源。其中,光发射装置71发射第一光信号的时间可以认为是光源711发射第一光信号的时间。
光发射装置71发射的第一光信号照射到目标对象上,并被目标对象反射为第二光信号,第二光信号射向可调反射装置74。可调反射装置74用于反射第二光信号。光接收装置72用于接收经可调反射装置74反射的第二光信号。也即,被目标对象反射形成的第二光信号投射于可调反射装置74,然后被可调反射装置74反射后进入光接收装置72。
光接收装置72可以包括图像传感器722和接收透镜723。接收透镜723可以接收到经可调反射装置74反射的第二光信号。该第二光信号经过接收透镜723后能够被图像传感器722采集到的,使得目标对象能够在图像传感器722上成像,得到二维图像。其中,光接收装置72接收到第二光信号的时间可以认为是图像传感器722接收到第二光信号的时间。示例性的,图像传感器722可以为SPAD探测器阵列,图像传感器722中可以包括多个SPAD探测器,一个SPAD探测器对应深度图像的一个像素点。
处理器73用于根据光接收装置72接收到的第二光信号的时间,以及光发射装置71发射第一光信号的时间,获取目标对象对应的深度图像。具体的,处理器73可以根据光源711发射第一光信号的时间,以及图像传感器722的每个SPAD探测器接收到第二光信号的时间,计算目标对象上各个点与3D相机700的距离,得到目标对象的深度信息。然后,处理器73可将图像传感器722采集的二维图像和各个像素点的深度信息结合,便可得到目标对象的深度图像。
一些实施例中,3D相机700还包括一个或多个固定反射装置,固定反射装置设置于3D相机700的发射光路或接收光路中,用于改变光线传播路径,以使光接收装置72、光发射装置71、可调反射装置74等部件的位置排布更为灵活,3D相机700的结构实现难度更低、更优化。例如,如图19所示,3D相机700在可调反射装置74与光接收装置72之间设有固定反射装置75,用于将可调反射装置74反射出的第二光信号反射至光接收装置72。
请一并参考图19和图20,图20为图19所示3D相机的另一结构示意图。
在本实施例中,由于可调反射装置74设置于3D相机700的接收光路中,光接收装置72的接收透镜723的视场(field of view,FOV)经可调反射装置74反射后投射在目标对象上,目标对象被接收透镜723的视场覆盖的区域为目标对象的图像采集区域,光接收装置72采集目标对象的图像采集区域的反射光线。因此,接收透镜723的视场在目标对象上的覆盖区域与可调反射装置74的位置相对应,也即目标对象的图像采集区域与可调反射装置74的位置相对应,当可调反射装置74转动、其位置发生变化时,目标对象的图像采集区域发生对应变化,故而3D相机700能够在可调反射装置74处于不同位置时,采集目标对象的不同区域的反射光线,形成不同的深度图像。
一些实施例中,如图19所示,可调反射装置74可以包括驱动部件741和安装于驱动部件741的反射镜742。目标对象反射的第二光信号投射于反射镜742,反射镜742将第二光信号反射向光接收装置72。驱动部件741能够在驱动信号的控制下,带动反射镜742转动至不同的位置,使得可调反射装置74处于不同的位置。例如,可调反射装置74的驱动部件741接收到驱动信号后,按照驱动信号、带动反射镜742转动至预设位置,使得可调反射装置74停留于预设位置。
示例性的,驱动部件741可以为微机电系统(micro-electro-mechanical system,MEMS)。此时,可调反射装置74也可称为MEMS微镜。在其他一些实施例中,驱动部件741也可以为电机。下文以驱动部件741为微机电系统为例,对可调反射装置74的结构和动作进行说明。
请一并参考图21A和图21B,图21A为本申请实施例提供的一种可调反射装置的结构示意图,图21B为图21A所示可调反射装置处于另一使用状态时的部分结构示意图。
一些实施例中,驱动部件741包括微镜支架7411、四个悬臂梁(7412、7413、7414、7415)以及镜面底座7416。微镜支架7411可以大致呈方形的框状,镜面底座7416位于微镜支架7411内侧,四个悬臂梁(7412、7413、7414、7415)的一端分别固定于微镜支架7411的四个角落、另一端均通过弹性件连接镜面底座7416。可调反射装置74的反射镜742固定于镜面底座7416。其中,各悬臂梁(7412、7413、7414、7415)均包括压电片,悬臂梁能够在驱动信号的驱动下收缩和延展。
在本实施例中,驱动部件741的四个悬臂梁(7412、7413、7414、7415)可以分别接收与预设位置对应的驱动信号,并依据各自接收的驱动信号实现彼此独立的变形动作,从而使镜面底座7416带动反射镜742转动至对应的角度,使得可调反射装置74能够转动至预设位置。
示例性的,四个悬臂梁(7412、7413、7414、7415)均匀散开的方式排布于镜面底座7416的四周。四个悬臂梁(7412、7413、7414、7415)中的其中两个悬臂梁(7412、7414)排布于X轴方向,另外两个悬臂梁(7413、7415)排布于Y轴方向,使得驱动部件741能够通过四个悬臂梁(7412、7413、7414、7415)实现双轴驱动结构,镜面底座7416能够带动反射镜742绕X轴方向转动和绕Y轴方向转动。
示例性的,如图21A所示,四个悬臂梁(7412、7413、7414、7415)未接收驱动信号、或者接收初始化信号,四个悬臂梁(7412、7413、7414、7415)保持初始形状,镜面底座7416处于零位,可调反射装置74处于原点位置。如图21B所示,四个悬臂梁(7412、7413、7414、7415)中的排布于X轴的两个悬臂梁(7412、7414)接收到驱动信号,其中一个悬臂梁7412在驱动信号(例如正电压信号)的驱动下收缩,该悬臂梁7412连接镜面底座7416的一端上翘,另一个悬臂梁7414在驱动信号(例如负电压信号)的驱动下延展,该悬臂梁7414连接镜面底座7416的一端下突,使得镜面底座7416绕Y轴转动。也即,驱动部件741可以通过控制排布于X轴方向的悬臂梁(7412、7414)的变形动作,使得镜面底座7416绕Y轴转动;驱动部件741可以通过控制排布于Y轴方向的悬臂梁(7413、7415)的变形动作,使得镜面底座7416绕X轴转动;驱动部件741可以通过控制四个悬臂梁(7412、7413、7414、7415)的变形动作,使得镜面底座7416绕X轴和Y轴转动。故而,处理器73可以通过驱动信号控制驱动部件741的四个悬臂梁(7412、7413、7414、7415)的动作,使得镜面底座7416转动至与驱动信号对应的停留角度,可调反射装置74转动至驱动信号对应的预设位置。其中,悬臂梁(7412、7413、7414、7415)变形的程度可以由驱动信号的电压强度控制,也即驱动信号可以通过电压强度控制镜面底座7416的偏转角度。
请参考图22,图22为本申请实施例提供的另一种可调反射装置的结构示意图。本实施例可调反射装置可以包括前述实施例可调反射装置的部分特征,以下主要说明两者的区别,两者相同的大部分技术方案不再赘述。
一些实施例中,可调反射装置74的驱动部件741包括微镜支架7411、四个悬臂梁(7412、7413、7414、7415)以及镜面底座7416。微镜支架7411可以大致呈方形的框状,镜面底座7416位于微镜支架7411内侧,四个悬臂梁(7412、7413、7414、7415)的一端分别固定于微镜支架7411的四个边的中部、另一端均通过弹性件连接镜面底座7416。可调反射装置74的反射镜742固定于镜面底座7416。其中,悬臂梁(7412、7413、7414、7415)包括压电片,悬臂梁(7412、7413、7414、7415)能够在驱动信号的驱动下收缩和延展。本实施例驱动部件741的控制方法可以参考前文实施例,此处不再赘述。
可以理解的是,图21A所示驱动部件741和图22所示驱动部件741是对本申请实施例的驱动部件741的举例说明,在其他一些实施例中,驱动部件741也可以有其他结构和驱动方式。
为了便于本领域技术人员理解,本申请实施例这里将介绍“3D相机700能够在可调反射装置74处于不同位置时,采集目标对象的不同区域的反射光线,形成不同的深度图像”的原理。
请一并参考图19和图20,图19和图20中的可调反射装置74处于原点位置。
一些实施例中,可调反射装置74处于原点位置,光接收装置72的接收透镜723的视场经可调反射装置74反射后,覆盖目标对象的全部区域,目标对象的全部区域为图像采集区域,这部分区域为与原点位置对应的原点区域,接收透镜723能够接收被目标对象的原点区域反射回的光线。
光发射装置71发射的第一光信号照射覆盖目标对象的全部区域,第一光信号覆盖目标对象的原点区域,第一光信号被目标对象的原点区域反射形成第二光信号,第二光信号射向可调反射装置74,光接收装置72接收被可调反射装置74反射的第二光信号,形成对应于原点位置的深度图像。
也即,可调反射装置74处于原点位置时,第一光信号被目标对象的原点区域(也即全部区域)反射形成第二光信号,第二光信号经可调反射装置74反射后,被接收透镜723接收,并在图像传感器722上成像。处理器73能够根据光发射装置71发射第一光信号的时间和光接收装置72接收第二光信号的时间,获得原点位置对应的深度图像。
请一并参考图23A和图23B,图23A为图19所示3D相机的SPAD探测器阵列与目标对象的对应关系图,图23B为图19所示3D相机的采集的目标对象的深度图像示意图。
示例性的,假设图像传感器722包括SPAD探测器的数量为2*2,则3D相机700生成的深度图像的分辨率为2*2,深度图像包括与SPAD探测器A对应的像素点1、与SPAD探测器B对应的像素点2、与SPAD探测器C对应的像素点3及与SPAD探测器D对应的像素点4。如图23A所示,SPAD探测器A、SPAD探测器B、SPAD探测器C以及SPAD探测器D共同获取目标对象的原点区域的深度图像。
处理器73将每个像素点的飞行时间分布直方图组合在一起构成目标对象的原点区域的二维图像。处理器73还根据光发射装置71发射第一光信号的时间和SPAD探测器接收到第二光信号的时间计算得到对应像素点的深度信息,从而得到如图23B所示的深度图像。图23B中,像素点1的深度信息为10米,像素点2、像素点3以及像素点4的深度信息均为5米。其中,当处理器73在计算像素点的深度信息的过程中得到多个距离值时,可以将多个距离值中的最小值作为对应像素点的深度信息。
请一并参考图24和图25,图24为图19所示3D相机在另一使用状态的硬件结构示意图,图25为图19所示3D相机的另一结构示意图。
一些实施例中,可调反射装置74转动至预设位置1,光接收装置72的接收透镜723的视场经可调反射装置74反射后,形成接收透镜723的视场覆盖区域,接收透镜723的视场覆盖区域覆盖目标对象的部分区域,目标对象的这部分区域为与预设位置1对应的预设区域1,也为图像采集区域,接收透镜723能够接收被目标对象的预设区域1反射回的光线。
光发射装置71发射的第一光信号照射覆盖目标对象的全部区域,第一光信号覆盖目标对象的预设区域1,第一光信号被目标对象的预设区域1反射形成第二光信号,第二光信号射向可调反射装置74,光接收装置72接收被可调反射装置74反射的第二光信号,形成对应于预设位置的深度图像。
也即,可调反射装置74处于预设位置1时,第一光信号被目标对象的预设区域1反射形成第二光信号,第二光信号经可调反射装置74反射后,被接收透镜723接收,并在图像传感器722上成像。处理器73能够根据光发射装置71发射第一光信号的时间和光接收装置72接收第二光信号的时间,获得预设位置1对应的深度图像。
请一并参考图26A和图26B,图26A为图24所示3D相机的SPAD探测器阵列与目标对象的一种对应关系图,图26B为图24所示3D相机的采集的目标对象的一种深度图像示意图。
示例性的,假设图像传感器722的SPAD探测器的数量为2*2,则3D相机700生成的深度图像的分辨率为2*2,深度图像包括与SPAD探测器A对应的像素点1、与SPAD探测器B对应的像素点2、与SPAD探测器C对应的像素点3及与SPAD探测器D对应的像素点4。如图26A所示,SPAD探测器A、SPAD探测器B、SPAD探测器C以及SPAD探测器D共同获取目标对象的预设区域1的深度图像。
处理器73将每个像素点的飞行时间分布直方图组合在一起构成目标对象的预设区域1的二维图像。处理器73还根据光发射装置71发射第一光信号的时间和SPAD探测器接收到第二光信号的时间计算得到对应像素点的深度信息,从而得到如图26B所示的深度图像。图26B中,像素点1、像素点2、像素点3以及像素点4的深度信息均为10米。
结合图23A、图23B、图26A以及图26B可知,可调反射装置74处于原点位置和预设位置1时,光接收装置72分别采集目标对象的原点区域和预设区域1的反射光线,3D相机700形成不同的深度图像。因此,3D相机700能够在可调反射装置74处于不同位置时,采集目标对象的不同区域的反射光线,形成不同的深度图像。
在本实施例中,3D相机700可以通过多次转动可调反射装置74至不同的预设位置,采集多张与预设位置对应的目标对象的预设区域的深度图像,然后通过融合多张目标对象的预设区域的深度图像,获得高分辨率的目标对象的深度图像。
一些实施例中,请一并参考图18和图19,一些实施例中,3D相机700的处理器73用于向可调反射装置74发送驱动信号,该驱动信号用于指示可调反射装置74转动至预设位置。可调反射装置74用于按照驱动信号,转动至预设位置。处理器73能够根据光接收装置72接收到第二光信号的时间以及光发射装置71发射第一光信号的时间,获得预设位置对应的第一深度图像。其中,第一深度图像为光接收装置72采集的目标对象的预设区域的深度图像,目标对象的预设区域对应于可调反射装置74的预设位置。
其中,3D相机700可以控制可调反射装置74分别转动至多个预设位置的每个预设位置,以采集多个第一深度图像,多个第一深度图像与多个预设位置一一对应。处理器73还用于对多个不同的预设位置对应的第一深度图像进行图像融合,生成目标对象的深度图像。在本实施例中,目标对象的深度图像可以由多张第一深度图像通过图像融合获得,因此目标对象的深度图像具有较高的分辨率。
一些实施例中,3D相机700还可以包括驱动电路,驱动电路分别与处理器73和可调反射装置74连接。其中,处理器73向驱动电路发送控制信号,驱动电路将控制信号转换为驱动信号,并将驱动信号传输给可调反射装置74,以驱动可调反射装置74转动。
以下通过举例说明“3D相机700控制可调反射装置74分别转动至多个预设位置的每个预设位置,并采集多个第一深度图像”的过程。
一些实施例中,可调反射装置74设有四个预设位置,光接收装置72的接收透镜723的视场在目标对象上的覆盖区域对应形成四个预设区域,3D相机700可以分别转动可调反射装置74至四个预设位置的每个预设位置,并采集四张与预设位置对应的目标对象的预设区域的深度图像,然后通过融合四张目标对象的预设区域的深度图像,获得高分辨率的目标对象的深度图像。
示例性的,驱动部件741具有零位(0°,0°)和四个停留角度。驱动部件741处于零位时,可调反射装置74处于零点位置。四个停留角度分别为(﹢α,﹢β)、(﹢α,-β)、(-α,﹢β)及(-α,-β),其中,α和β为正数值角度。四个停留角度与四个预设位置一一对应。也即,驱动部件741处于某个停留角度时,可调反射装置74处于与该停留角度对应的预设位置。驱动部件741能够依据驱动信号,从零位转动依次转动至四个停留角度的每个角度,也即可调反射装置74能够在驱动信号的指示下,分别转动至四个预设位置的每个预设位置,使得光接收装置72能够分别采集目标对象的四个预设区域的深度图像,3D相机700能够通过对四个预设区域的深度图像进行图像融合,以获得高分辨率的目标对象的深度图像。
在本实施例中,由于可调反射装置74在运行时具有四个确定的预设位置,驱动部件741具有四个确定的停留角度,驱动部件741通过双轴、四档位设计,使得可调反射装置74的运动可实现稳定的开环控制,3D相机700无需设计闭环反馈电路来确认可调反射装置74的实际位置,省去了处理器73对可调反射装置74的位置的判定过程,使得3D相机700的控制电路简单、可靠,保证了系统的鲁棒性。
其中,驱动部件741可以设置限位机构,以稳定、准确地停留于预设的停留角度,使得可调反射装置74准确停留于预设位置。示例性的,当驱动部件741采用如图21A或图22所示微机电系统时,可以通过在微镜支架7411上设置台阶或弹性件作为机械限位机构,使得悬臂梁变形至一定位置后抵持台阶或弹性件、停止运动,镜面底座7416带动反射镜742停留于预设的停留角度。驱动部件741的限位机构也可以采用其他结构和其他限位方法,本申请实施例不对驱动部件741的具体结构和限位方法作严格限定。
具体的,处理器73可以向可调反射装置74发送驱动信号,该驱动信号用于指示可调反射装置74转动至预设位置1(如图24所示)。例如,处理器73可以向驱动电路发送控制信号,该驱动电路可以将控制信号转换为驱动信号,并向可调反射装置74发送该驱动信号。可调反射装置74接收到该驱动信号后,可以按照该驱动信号的指示发生转动,并转动至预设位置1。
其中,可调反射装置74转动至预设位置1后,3D相机700的处理器73可控制光发射装置71发射第一光信号。光发射装置71发射的第一光信号照射到目标对象的预设区域1上,由目标对象反射为第二光信号。光接收装置72中的接收透镜723可以接收到目标对象反射的第二光信号。该第二光信号经过接收透镜723后可被图像传感器722采集到的,使目标对象的预设区域1在图像传感器722上成像,得到上述预设位置1对应的二维图像。二维图像也就是每个SPAD探测器得到的飞行时间分布直方图组合在一起的图像,处理器73可以根据每个飞行时间分布直方图计算得到该像素点的深度信息,这样,就可以得到可调反射装置74转动至预设位置1时的第一深度图像。其中,如图26A所示,可调反射装置74转动至预设位置1后,光接收装置72的SPAD探测器阵列采集目标对象的预设区域1的反射光线,3D相机700获得如图26B所示的,对应于预设位置1的第一深度图像。
然后,3D相机700可执行上述流程,得到其他预设位置(如预设位置2、预设位置3和预设位置4)对应的目标对象的第一深度图像。其中,如图27A和图27B所示,图27A为图19所示3D相机的SPAD探测器阵列与目标对象的另一对应关系图,图27B为图19所示3D相机的采集的目标对象的另一深度图像示意图。可调反射装置74转动至预设位置2后,光接收装置72的SPAD探测器阵列采集目标对象的预设区域2的反射光线,3D相机700获得如图27B所示的、对应于预设位置2的第一深度图像,第一深度图像的像素点1和像素点3的深度信息为10米,像素点2和像素点4的深度信息为5米。如图28A和图28B所示,图28A为图19所示3D相机的SPAD探测器阵列与目标对象的另一对应关系图,图28B为图19所示3D相机采集的目标对象的另一深度图像示意图。可调反射装置74转动至预设位置3后,光接收装置72的SPAD探测器阵列采集目标对象的预设区域3的反射光线,3D相机700获得如图28B所示的、对应于预设位置3的第一深度图像,第一深度图像的像素点1和像素点2的深度信息为10米,像素点3和像素点4的深度信息为5米。如图29A和图29B所示,图29A为图19所示3D相机的SPAD探测器阵列与目标对象的另一对应关系图,图29B为图19所示3D相机的采集的目标对象的另一深度图像示意图。可调反射装置74转动至预设位置4后,光接收装置72的SPAD探测器阵列采集目标对象的预设区域4的反射光线,3D相机700获得如图29B所示的、对应于预设位置4的第一深度图像,第一深度图像的像素点1的深度信息为10米,像素点2、像素点3和像素点4的深度信息为5米。
处理器73可以对多张低分辨率的第一深度图像进行图像融合,以得到高分辨率的目标对象的深度图像。也就是说,使用3D相机700拍摄目标对象的深度图像时,可以多次转动可调反射装置74,以便拍摄得到多张第一深度图像。即使3D相机700的分辨率较低,使得该多张第一深度图像的分辨率较低。但是,本申请实施例中,处理器73可以对多张低分辨率的第一深度图像进行图像融合以得到高分辨率的目标对象的深度图像。也就是说,使用本申请实施例提供的3D相机700可以提升深度图像的分辨率。
其中,本实施例3D相机700获取的多张第一深度图像(图26B、图27B、图28B以及图29B)与前文实施例3D相机700获取的多张深度图像(图9B、图10B、图11B以及图12B)相同,处理器73对本实施例多张第一深度图像进行图像融合以得到目标对象的深度图像的方法,可以参阅前文实施例。例如,在一些实施例中,处理器73可以对低分辨率深度图像进行微步超分,将微步超分的低分辨率深度图像拼接融合以得到高分辨率的深度图像。在另一些实施例中,处理器73也可以使用低分辨率深度图像进行直接拼接融合,以得到高分辨率深度图像。在其他一些实施例中,处理器73还可以采用双三插值法、卷积插值法等方法对多张第一深度图像进行图像融合。
在其他一些实施例中,可调反射装置74还可以具有其他数量的预设位置,例如2个、6个、9个等,采集对应数量的第一深度图像,以使3D相机700能够形成满足不同需求的深度图像。本申请实施例不对可调发射装置的预设位置的具体数量、具体转动角度等进行严格限定。
可以理解的是,在本申请实施例中,3D相机700可以在可调反射装置74处于原点位置时,获取目标对象的低分辨率的深度图像,3D相机700也可以通过多次转动可调反射装置74、采集多张低分辨率的第一深度图像,通过图像融合多张第一深度图像得到目标对象的高分辨率的深度图像,因此3D相机700可以依据分辨率需求,选择不同的拍摄方法,以形成对应的深度图像。
示例性的,处理器73还用于获取目标分辨率,并根据目标分辨率和电子设备的分辨率,确定N个不同的预设位置。其中,电子设备的分辨率即为3D相机700的分辨率,也即图像传感器722的分辨率。处理器73还用于若电子设备的分辨率小于目标分辨率,则根据目标分辨率和电子设备的分辨率,确定N个不同的预设位置。
例如,当3D相机700处于辅助对焦模式中时,3D相机700形成的目标对象的深度图像具有大致的深度信息即可,目标分辨率小于或等于图像传感器722的分辨率,3D相机700在可调反射装置74处于原点位置时,形成目标对象的深度图像。当3D相机700处于深度图像拍摄模式中时,3D相机700形成的目标对象的深度图像的目标分辨率较高,大于图像传感器722的分辨率,处理器73依据目标分辨率和图像传感器722的分辨率,确定多个不同的预设位置,3D相机700采集与多个预设位置相对应的多个第一深度图像,然后通过图像融合多个第一深度图像,形成高分辨率的目标对象的深度图像。
其中,由于可调反射装置74转动时,能够较大程度地改变目标对象的图像采集区域的位置,因此处理器73可以通过拼接多张与图像采集区域相对应的第一深度图像,以形成画幅尺寸较大的目标对象的深度图像,因此3D相机700还可以应用于广角拍摄场景中,以形成具有较大画幅尺寸的深度图像。
请一并参考图30和图31,图30为图18所示3D相机在另一些实施例中的硬件结构示意图,图31为图30所示3D相机的另一结构示意图。本实施例3D相机可以包括前述实施例3D相机的部分特征,以下主要说明两者的区别,两者相同的大部分技术方案不再赘述。
一些实施例中,可调反射装置74处于原点位置,光接收装置72的接收透镜723的视场经可调反射装置74反射后,覆盖目标对象的部分区域,这部分区域为与原点位置对应的原点区域,也即为图像采集区域,接收透镜723能够接收被目标对象的原点区域反射回的光线。原点区域的面积小于目标对象的面积。
具体的,光发射装置71发射第一光信号,第一光信号照射在目标对象上并覆盖原点区域,第一光信号被原点区域反射形成第二光信号,第二光信号射向可调反射装置74,且被可调反射装置74反射至光接收装置72,光接收装置72接收第二光信号。
在本实施例中,3D相机700的光接收装置72的接收透镜723的视场角较小,光接收装置72采集目标对象的较小面积的图像采集区域的反射光线,图像采集区域在光接收装置72的图像传感器722上成像,3D相机700形成对应于原点位置的目标对象的深度图像。
一些实施例中,光接收模块的接收透镜723的视场角小于或等于60°。接收透镜723的视场角可以为但不限于为32°、38°、40°、45°、53°、60°等。
请一并参考图32A和图32B,图32A为图30所示3D相机的SPAD探测器阵列与目标对象的对应关系图,图32B为图30所示3D相机的采集的目标对象的深度图像示意图。
示例性的,假设图像传感器722包括SPAD探测器的数量为2*2,则3D相机700生成的深度图像的分辨率为2*2,深度图像包括与SPAD探测器A对应的像素点1、与SPAD探测器B对应的像素点2、与SPAD探测器C对应的像素点3及与SPAD探测器D对应的像素点4。如图32A所示,SPAD探测器A、SPAD探测器B、SPAD探测器C以及SPAD探测器D共同获取目标对象的原点区域的深度图像。
处理器73将每个像素点的飞行时间分布直方图组合在一起构成目标对象的原点区域的二维图像。处理器73还根据光发射装置71发射第一光信号的时间和SPAD探测器接收到第二光信号的时间计算得到对应像素点的深度信息,从而得到如图32B所示的深度图像。图32B中,像素点1、像素点2、像素点3以及像素点4的深度信息均为10米。
请参考图33,图33为图18所示3D相机在另一些实施例中的硬件结构示意图。
一些实施例中,3D相机700包括深度相机和RGB相机76,深度相机可以包括前述光发射装置71、光接收装置72以及可调反射装置74。RGB相机76用于拍摄目标对象,形成目标对象的彩色二维图像。深度相机用于形成目标对象的深度图像。RGB相机76所形成的彩色二维图像可以与目标对象的深度图像相结合,形成彩色深度图像。
其中,RGB相机76的视场覆盖目标对象,接收透镜723的视场角小于RGB相机76的视场角。具体的,当RGB相机76处于默认模式,也即拍摄倍率为1时,RGB相机76的视场覆盖目标对象,能够形成完整的目标对象的彩色二维图像。而光接收模块的接收透镜723的视场角小于RGB相机76的视场角,光接收模块形成目标对象的部分区域的具有深度信息的二维图像。可以理解的是,由于光接收模块的接收透镜723的视场角较小,因此可调反射装置74处于原点位置或其他位置时,目标对象的图像采集区域的面积均小于目标对象的面积。
示例性的,RGB相机76的视场角可以在75°~85°范围内。在传统的3D相机中,深度相机的光接收模块的接收透镜的视场角通常与RGB相机的视场角相同或相近,或者大于RGB相机的视场角,使得3D相机能够形成目标对象的彩色深度图像。而在本实施例中,3D相机700的光接收模块的接收透镜723的视场角能够小于RGB相机76的视场角,3D相机700可以通过多次转动可调反射装置74至不同的预设位置,采集多张与预设位置对应的目标对象的预设区域的深度图像,然后通过融合多张目标对象的预设区域的深度图像,获得完整的、高分辨率的目标对象的深度图像。
其中,深度相机可以在RGB相机76处于拍照或录像模式时,起到快速对焦、快速定位等功能,也可以在RGB相机76处于大光圈模式(例如人像模式)下,提供景深信息,用于辅助推算虚化与对焦,还可以在超级夜景模式下定位暗部细节,本申请不对深度相机与RGB相机76的配合方式、场景等作严格限定。
以下举例说明图30所示3D相机700形成目标对象的深度图像的过程。
请参考图34,图34为本申请实施例提供的一种目标对象的区域划分方式。一些实施例中,将目标对象划分为四个预设区域,3D相机700的可调反射装置74设置有对应于预设区域1的预设位置1、对应于预设区域2的预设位置2、对应于预设区域3的预设位置3以及对应于预设区域4的预设位置4。
请参考图35,图35为图30所示3D相机在另一使用状态中的硬件结构示意图。3D相机700的处理器73可以向可调反射装置74发送驱动信号,该驱动信号用于指示可调反射装置74转动至预设位置1。例如,处理器73可以向驱动电路发送控制信号,该驱动电路可以将控制信号转换为驱动信号,并向可调反射装置74发送该驱动信号。可调反射装置74接收到该驱动信号后,可以按照该驱动信号的指示发生转动,并转动至预设位置1。
其中,可调反射装置74转动至预设位置1后,3D相机700的处理器73可控制光发射装置71发射第一光信号。光发射装置71发射的第一光信号照射到目标对象的预设区域1上,由目标对象反射为第二光信号。光接收装置72中的接收透镜723可以接收到目标对象反射的第二光信号。该第二光信号经过接收透镜723后可被图像传感器722采集到的,使目标对象的预设区域1在图像传感器722上成像,得到上述预设位置1对应的二维图像。二维图像也就是每个SPAD探测器得到的飞行时间分布直方图组合在一起的图像,处理器73可以根据每个飞行时间分布直方图计算得到该像素点的深度信息,这样,就可以得到可调反射装置74转动至预设位置1时的第一深度图像。其中,如图36A和图36B所示,图36A为图35所示3D相机的SPAD探测器阵列与目标对象的一种对应关系图,图36B为图35所示3D相机的采集的目标对象的一种深度图像示意图。可调反射装置74转动至预设位置1后,光接收装置72的SPAD探测器阵列(SPAD探测器A、SPAD探测器B、SPAD探测器C以及SPAD探测器D)采集目标对象的预设区域1的反射光线,3D相机700获得如图36B所示的,对应于预设位置1的第一深度图像,第一深度图像的像素点1、像素点2、像素点3以及像素点4的深度信息均为10米。
然后,3D相机700可执行上述流程,得到其他预设位置(如预设位置2、预设位置3和预设位置4)对应的目标对象的第一深度图像。其中,如图37A和图37B所示,图37A为图30所示3D相机的SPAD探测器阵列与目标对象的另一对应关系图,图37B为图30所示3D相机的采集的目标对象的另一深度图像示意图。可调反射装置74转动至预设位置2后,光接收装置72的SPAD探测器阵列采集目标对象的预设区域2的反射光线,3D相机700获得如图37B所示的、对应于预设位置2的第一深度图像,第一深度图像的像素点1和像素点3的深度信息为10米,像素点2和像素点4的深度信息为5米。如图38A和图38B所示,图38A为图30所示3D相机的SPAD探测器阵列与目标对象的另一对应关系图,图38B为图30所示3D相机的采集的目标对象的另一深度图像示意图。可调反射装置74转动至预设位置3后,光接收装置72的SPAD探测器阵列采集目标对象的预设区域3的反射光线,3D相机700获得如图38B所示的、对应于预设位置3的第一深度图像,第一深度图像的像素点1和像素点2的深度信息为10米,像素点3和像素点4的深度信息为5米。如图39A和图39B所示,图39A为图30所示3D相机的SPAD探测器阵列与目标对象的另一对应关系图,图39B为图30所示3D相机的采集的目标对象的另一深度图像示意图。可调反射装置74转动至预设位置4后,光接收装置72的SPAD探测器阵列采集目标对象的预设区域4的反射光线,3D相机700获得如图39B所示的、对应于预设位置4的第一深度图像,第一深度图像的像素点1的深度信息为10米,像素点2、像素点3和像素点4的深度信息为5米。
处理器73对图36B、图37B、图38B以及图39B所示的四张第一深度图像进行图像融合,以得到高分辨率的目标对象的深度图像。其中,处理器73可以使用直接拼接融合的方式得到目标对象的深度图像。例如,将四张第一深度图像依据对应的预设区域的位置进行排布、然后拼接成图40所示的目标对象的深度图像。其中,图40为图30所示3D相机700形成的一种目标对象的深度图像。目标对象的深度图像包括4*4像素点,其中像素点1-1、像素点1-2、像素点1-3以及像素点1-4分别对应于图36B所示第一深度图像的像素点1、像素点2、像素点3以及像素点4,像素点2-1、像素点2-2、像素点2-3以及像素点2-4分别对应于图37B所示第一深度图像的像素点1、像素点2、像素点3以及像素点4,像素点3-1、像素点3-2、像素点3-3以及像素点3-4分别对应于图38B所示第一深度图像的像素点1、像素点2、像素点3以及像素点4,像素点4-1、像素点4-2、像素点4-3以及像素点4-4分别对应于图39B所示第一深度图像的像素点1、像素点2、像素点3以及像素点4。当然,在其他一些实施例中,处理器73也可以采用其他图像融合方式对四张第一深度图像进行融合,以获得目标对象的深度信息,本申请对此不作严格限定。
可以理解的是,在实际应用中,考虑到组装公差与器件差异,可以适当调整光接收装置72的接收透镜723的视场角、可调反射装置74的预设位置等,使得目标对象的四个预设区域之间具有一定的重叠率,以避免在图像融合过程中出现图像拼接等异常,从而提高目标对象的准确度。
请参考图41,图41为图18所示3D相机在另一些实施例中的硬件结构示意图。本实施例3D相机可以包括前述实施例3D相机的部分特征,以下主要说明两者的区别,两者相同的大部分技术方案不再赘述。
一些实施例中,3D相机700还包括分光装置77,也即3D相机700包括光发射装置71、光接收装置72、可调反射装置74、分光装置77及处理器73。分光装置77包括两个光路路径,其中一个光路路径用于使第一光信号投射至可调反射装置74,第一光信号被可调反射装置74反射后照射在目标对象上,另一个光路路径用于使被可调反射装置74反射后的第二光信号进入光接收装置72。
具体的,光发射装置71发射第一光信号,第一光信号经分光装置77的其中一个光路路径投射于可调反射装置74,第一光信号被可调反射装置74反射到目标对象上,第一光信号被目标对象发射形成第二光信号,第二光信号射向可调反射装置74并被可调反射装置74反射向分光装置77,第二光信号经分光装置77的另一光路路径进入光接收装置72。
在本实施例中,3D相机700通过分光装置77,使得第一光信号实现“分光装置77——可调反射装置74——目标对象”的光路传输过程,第二光信号实现“目标对象——可调反射装置74——分光装置77”的光路传输过程,第一光信号与第二光信号实现部分共轴,使得光发射装置71与光接收装置72之间无视差、或者视差较小,从而简化了处理器73的算法补偿过程,提高了系统的鲁棒性。
一些实施例中,光接收装置72的接收透镜723的视场经分光装置77、可调反射装置74后,覆盖目标对象的图像采集区域,光发射装置71的发射视场经分光装置77、可调反射装置74后,也覆盖目标对象的图像采集区域。也即,光发射装置71的发射视场角大于或等于接收透镜723的视场角,以使第一光信号充分投射并覆盖目标对象的图像采集区域。例如,可调反射装置74处于原点位置,接收透镜723的视场覆盖目标对象的原点区域,原点区域为图像采集区域。光发射装置71的发射视场覆盖原点区域,第一光信号投射于原点区域,并被原点区域反射为第二光信号。
一些实施例中,目标对象的图像采集区域的面积可以小于目标对象的面积,例如图41中,原点区域的面积小于目标对象的面积,在光发射装置71的发射视场覆盖接收透镜723的视场的情况下,光发射装置71的发射视场可以适当减小,例如光发射装置71的发射视场覆盖目标对象的部分区域,以降低光发射装置71的光功率,降低3D相机700的电流需求和功耗,有利于提升3D相机700的抗干扰性能和续航性能。此外,由于3D相机700的光发射装置71的发射视场需求较小,也有利于提升3D相机700的检测距离。
在其他一些实施例中,目标对象的图像采集区域的面积也可以与目标对象的面积相等或相近,例如图19所示3D相机700的光接收透镜723的视场与目标对象的关系,此时,光发射装置71的发射视场覆盖目标对象,以满足3D相机700的深度图像采集需求。在本实施例中,3D相机700功耗较高,可以应用于一些对功耗要求不敏感、或功耗要求较低的场景中,例如车载、家用电器等平台。
示例性的,如图41所示,光发射装置71可以包括光源711、准直镜713以及扩散板712(diffuser)。其中,光源711可以采用垂直腔面激光器(vertical-cavity surface-emitting laser,VCSEL)。光源711能够以小角度发射红外(940nm)激光。此时,第一光信号为红外激光。准直镜713收敛红外激光的角度,使红外激光接近于平行光。扩散板712将红外激光扩散为面光源。在本实施例中,光发射装置71的发射视场角较小。
请一并参考图41和图42,图42为图41所示3D相机的分光装置在一些实施例中的结构示意图。一些实施例中,分光装置77的两个光路路径包括光透射路径77a和光反射路径77b。示例性的,光发射装置71发射的第一光信号经分光装置77的光透射路径77a投射至可调反射装置74;被可调反射装置74反射的第二光信号经光反射路径77b进入光接收装置72。
一些实施例中,3D相机700还包括一个或多个固定反射装置,固定反射装置设置于3D相机700的发射光路或接收光路中,用于改变光线传播路径,以使光接收装置72、光发射装置71、分光装置77、可调反射装置74等部件的位置排布更为灵活,3D相机700的结构实现难度更低、更优化。例如,如图41所示,3D相机700在光发射装置71与分光装置77之间设有固定反射装置78,用于将光发射装置71发射的第一光信号反射至分光装置77。
在本实施例中,光接收装置72和光发射装置71的位置相近,朝向相同,两者可以固定于同一块电路板上,以通过电路板与其他部件实现电连接。
如图41所示,具体的,可调反射装置74处于原点位置,光发射装置71发出的第一光信号被固定反射装置78反射向分光装置77,第一光信号经过分光装置77的光透射路径77a、投射于可调反射装置74,第一光信号被可调反射装置74反射向目标对象,第一光信号覆盖目标对象的原点区域,第一光信号被目标对象的原点区域反射形成第二光信号,第二光信号射向可调反射装置74,第二光信号被可调反射装置74反射向分光装置77,第二光信号经分光装置77的光反射路径77b后进入光接收装置72,光接收装置72接收第二光信号,3D相机700形成目标对象的原点区域的深度图像。
示例性的,如图42所示,分光装置77包括第一棱镜771、第二棱镜772以及一层或多层薄膜773。第一棱镜771和第二棱镜772为45°的直角棱镜,第一棱镜771的斜面和第二棱镜772的斜面相对设置,一层或多层薄膜773位于第一棱镜771的斜面与第二棱镜772的斜面之间。光线可以自第一棱镜771的直边进入,经过一层或多层薄膜773后,自第二棱镜772的直边射出,形成光透射路径77a。光线可以自第二棱镜772的直边进入,被一层或多层薄膜773反射后,自第二棱镜772的另一直边射出,形成光反射路径77b。其中,光透射路径77a和光反射路径77b经过第二棱镜772的同一直边。
可以理解的是,分光装置77的主要目的在于集成两个光路路径,且这两个光路路径中的一个光路路径引导光线射向可调反射装置74,另一个光路路径接收被可调反射装置74反射的光线。图42所示分光装置77仅为一种示例结构,本申请实施例的分光装置77还可以有其他结构,本申请对此不做严格限定。
请参考图43,图43为图18所示3D相机在另一些实施例中的硬件结构示意图。本实施例3D相机可以包括前述实施例3D相机的部分特征,以下主要说明两者的区别,两者相同的大部分技术方案不再赘述。
一些实施例中,分光装置77包括光透射路径77a和光反射路径77b,第一光信号经分光装置77的光反射路径77b投射至可调反射装置74,被可调反射装置74反射的第二光信号经光透射路径77a进入光接收装置72。示例性的,3D相机700在可调反射装置74与光接收装置72之间设有固定反射装置79,用于将可调反射装置74反射出的第二光信号反射至光接收装置72。
如图43所示,具体的,可调反射装置74处于原点位置,光发射装置71发出的第一光信号通过分光装置77的光反射路径77b射向可调反射装置74,第一光信号被可调反射装置74反射向目标对象,第一光信号覆盖目标对象的原点区域,第一光信号被目标对象的原点区域反射形成第二光信号,第二光信号射向可调反射装置74,第二光信号被可调反射装置74反射后经过分光装置77的光透射路径77a,并被固定反射装置反射向光接收装置72,光接收装置72接收第二光信号,3D相机700形成目标对象的原点区域的深度图像。
可以理解的是,图41所示3D相机700的能耗需求较小,3D相机700的架构同样可以应用于手机、相机、平板等电子设备中。本申请实施例的其他3D相机700可以适用于近距离、低功率探测,对尺寸要求比较高,对功耗不敏感的平台,例如电视平台等。
请参考图44,图44为本申请实施例提供的另一种深度图像的拍摄方法。该方法可以应用于ToF相机。该方法可以于图18至图43所示3D相机700中执行。
如图44所示,该方法包括步骤201-步骤205。
步骤201:ToF相机获取待生成深度图像的目标分辨率。步骤201的相关描述可以参阅前文实施例的深度图像的拍摄方法中步骤101的相关描述。
步骤202:ToF相机确定目标分辨率大于ToF相机的分辨率。步骤202的相关描述可以参阅前文实施例的深度图像的拍摄方法中步骤102的相关描述。
步骤203:ToF相机根据目标分辨率确定待采集的第一深度图像的数量N和可调反射装置转动的多个预设位置。
其中,“ToF相机根据目标分辨率确定待采集的第一深度图像的数量N”的方法可以参阅前文实施例的深度图像的拍摄方法中步骤103中的相关描述。
其中,ToF相机中可以预先配置可调反射装置的多个预设位置。当ToF相机确定出待采集的第一深度图像的数量,ToF相机可以根据第一深度图像的数量确定可调反射装置的转动的位置。例如,前文实施例中,可调反射装置设置有预设位置1、预设位置2、预设位置3和预设位置4,待采集的第一深度图像的数量为4,则ToF相机可以确定出接收透镜待转动的位置包括预设位置1、预设位置2、预设位置3和预设位置4。
步骤204:ToF相机分别将可调反射装置转动至多个预设位置中的每个,并采集可调反射装置转动至每个预设位置后目标对象的第一深度图像。
其中,ToF相机将可调反射装置转动至一个预设位置后,ToF相机采集得到可调反射装置在该预设位置的第一深度图像。其中,可调反射装置可以于预设位置停留一定时间(例如5ms左右),以使ToF相机充分采集目标对象的预设区域的反射光线,以形成较高质量的深度图像。ToF相机还可以判断第一深度图像是否采集完成,待ToF相机确定该预设位置的第一深度图像采集完成之后,ToF相机将可调反射装置转动至下一个预设位置。
具体的,ToF相机的处理器可以根据可调反射装置当前的位置和预设位置之间的距离值,生成驱动信号,并向驱动电路发送该驱动信号。驱动电路接收到该驱动信号,向可调反射装置发送该驱动信号。该驱动信号用于指示可调反射装置转动至预设位置。
可以理解的,ToF相机每次采集得到第一深度图像之后,都会判断是否需要继续采集第一深度图像。例如,ToF相机可以判断已采集得到的第一深度图像的数量是否满足待采集的第一深度图像的数量,如果已采集得到的第一深度图像的数量与待采集的第一深度图像的数量相等,则ToF相机已完成全部第一深度图像的采集;如果已采集得到的第一深度图像的数量小于待采集的第一深度图像的数量,则ToF相机继续转动可调反射装置至下一个预设位置并采集第一深度图像。或者,ToF相机可以判断每个可调反射装置转动的预设位置是否都对应有采集得到的第一深度图像,如果确定每个可调反射装置转动的预设位置都对应有采集得到的第一深度图像,则ToF相机已完成全部第一深度图像的采集;如果存在一个可调反射装置转动的预设位置没有对应的采集得到的第一深度图像,则ToF相机转动可调反射装置至该预设位置并采集第一深度图像。
步骤205:ToF相机对采集到的多个第一深度图像进行图像融合,得到目标对象的第二深度图像。
ToF相机根据低分辨率图像生成深度图像时,ToF相机可以基于每个低分辨率图像以及该图像对应的采集坐标进行图像融合,以生成高分辨率深度图像。例如,ToF相机可以采用双三插值法、卷积插值法、微步超分后融合拼接法、直接拼接法等。
本申请实施例提供的方法中,可通过将多次转动ToF相机的可调反射装置所采集到的多张低分辨率的深度图像,进行图像融合以得到高分辨率的深度图像。该方法可以提升ToF相机拍摄得到的深度图像的分辨率。因此,通过本申请实施例的方法,ToF相机可拍摄得到高分辨率的深度图像,高分辨率的深度图像可用于进行高精度的三维建模。
一些实施例中,第二光信号为第一光信号被目标对象的预设区域反射形成的光线,其中,可调反射装置处于预设位置时,接收透镜的视场经可调反射装置反射后,覆盖的目标对象的预设区域,预设区域的面积小于目标对象的面积。此时,ToF相机可以对N个第一深度图像进行直接拼接融合,得到目标对象的深度图像。
以下通过举例说明图41所示ToF相机形成具有高分辨率的目标对象的深度图像的方法,方法可以包括以下步骤:
步骤一:ToF相机获取待生成深度图像的目标分辨率为640*480。
步骤二:ToF相机确定目标分辨率大于ToF相机的分辨率。其中,ToF相机的分辨率为320*240。
步骤三:ToF相机根据目标分辨率确定待采集的第一深度图像的数量为4,并确定可调反射装置转动的四个预设位置。其中,每张第一深度图像的分辨率为320*240。
请一并参考图45A和图45B,图45A为本申请实施例提供的一种目标对象与ToF相机的图像采集视场的关系示意图,图45B为本申请实施例提供的一种反射界面转动时的光路变化示意图。其中,ToF相机的图像采集视场角为80°。图像采集视场角代表ToF相机对目标对象的角线方向的覆盖,换算可得,ToF相机对目标对象长边的视场覆盖需要64°(如图45A所示),ToF相机对目标对象短边的视场覆盖需要48°。如图45A所示,目标对象形成与四个预设位置对应的预设区域1、预设区域2、预设区域3以及预设区域4,当预设区域1左上角的光束位置移动到预设区域2左上角的光束位置时,光束需要转动32°,该转动由可调反射装置的转动实现。如图45B所示,当入射光角度不变,反射界面转动α度时,也即反射界面的法线转动α度时,反射界面转动后形成的出射光2相较于反射界面转动前形成的出射光1转动2α度。因此,光束转动32°,可以由可调反射装置转动16°实现。设置可调反射装置处于原点位置时的坐标为(0°,0°),则可调反射装置转动时对应的长边方向的两个转动角度分别为+8°与-8°。同样的计算方式可得,可调反射装置转动时对应的短边方向的两个转动角度分别为+6°与-6°。如图46所示,图46为本申请实施例提供的一种目标对象的区域划分示意图。在本实施例中,ToF相机设计可调反射装置的驱动部件的四个停留角度分别为(+8°,+6°)、(+8°,-6°)、(-8°,+6°)以及(-8°,-6°),驱动部件带动反射镜停留于这四个停留角度时,可调反射装置对应地处于四个预设位置,目标对象的左上角区域为对应于(+8°,+6°)的预设区域1,右上角区域为对应于(-8°,+6°)的预设区域2,左下角区域为对应于(+8°,-6°)的预设区域3,右上角区域为对应于(-8°,-6°)的预设区域4。
步骤四:ToF相机分别将可调反射装置转动至四个预设位置中的每个,并采集可调反射装置转动至每个预设位置后目标对象的第一深度图像。
例如,ToF相机将可调反射装置转动至预设位置1后,ToF相机采集目标对象的预设区域1的反射光线,得到可调反射装置在该预设位置的第一深度图像。ToF相机还可以判断第一深度图像是否采集完成,待ToF相机确定该预设位置的第一深度图像采集完成之后,ToF相机将可调反射装置转动至下一个预设位置,也即预设位置2。重复上述过程,ToF相机得到与四个预设位置对应的四张第一深度图像。
步骤五:ToF相机对采集到的四个第一深度图像进行图像融合,得到目标对象的第二深度图像。如图46所示,四张分辨率为320*240的第一深度图像,可以依据预设区域的划分位置,拼接形成目标对象的完整的深度图像,也即第二深度图像,该深度图像的分辨率为640*480。
在本申请实施例中,处理器控制可调反射装置转动至预设位置之前,处理器可以根据预设的标定信息确定用于驱动可调反射装置转动的驱动信号。其中,该标定信息可以包括驱动电路中的驱动电压与预设位置的对应关系。例如,可调反射装置当前的位置为原点位置时,驱动电压为第一驱动电压,该驱动电压作为驱动信号,可以驱动可调反射装置从原点位置转动至预设位置1。
如图47所示,图47为本申请实施例提供的另一种ToF相机在获取深度图像的示意图。ToF相机在获取深度图像时,处理器得到飞行时间分布直方图、可调反射装置的转动信息和可调反射装置的标定信息,处理器可以根据可调反射装置的的标定信息和可调反射装置的的转动信息确定出该飞行时间分布直方图对应的预设位置,处理器可以根据飞行时间分布直方图以及预设位置生成目标对象在预设位置的深度图像。
需要说明的是,本申请实施例提供的ToF相机可以设置在电子设备中,电子设备中可以安装应用程序,例如,电子设备中安装有相机应用,当电子设备运行相机应用,电子设备可以启动ToF相机,通过ToF相机获取目标对象的深度图像。在一些实施例中,电子设备中还可以安装的其他应用(如,实体建模应用),当电子设备运行实体建模应用,实体建模应用可以调用电子设备中ToF相机生成目标对象的深度图像。其中,电子设备中安装ToF相机,则ToF相机的可以采用上述方法生成深度图像。
请参考图48,图48为本申请实施例提供的一种可调反射装置的标定方法的流程示意图,该方法可以应用于上述ToF相机,该方法也可以应用于具备上述ToF相机的电子设备,如手机。该方法可以包括步骤2101-步骤2106。
需要说明的是,采用ToF相机拍摄测试板(chart),并控制ToF相机中的可调反射装置转动。其中,ToF相机拍摄得到SPAD阵列每个像素的飞行时间分布直方图,并对每个像素的飞行时间分布直方图求和,计算出目标对象的灰度图,处理器检测灰度图上特征点,以便对ToF相机进行标定。
步骤2101:处理器向可调反射装置发送驱动信号。
其中,如果ToF相机中包括驱动电路,则处理器向驱动电路发送驱动信号,由驱动电路向可调反射装置发送驱动信号,使得可调反射装置在驱动信号的作用下转动。驱动信号可以电压信号,也可以是电流信号。例如,驱动信号是电压信号,如(Vxi,Vyi);驱动信号是电流信号,如(Ix,Iy)。
步骤2102:可调反射装置在驱动信号的作用下转动,直到可调反射装置停止转动。
步骤2103:处理器控制光发射装置和光接收装置采集并计算得到目标对象的灰度图。
可以理解的,在对ToF相机进行标定时,是需要确定出可调反射装置在驱动信号的作用下转动的角度,与ToF相机得到的图像的特征点的坐标的关系,推断出驱动信号作用在可调反射装置时,可调反射装置的转动角度与驱动信号的关系。因此,ToF相机不需要拍摄深度图像。
步骤2104:处理器检测灰度图中的特征点的坐标,并存储灰度图。
其中,测试板上包括多个特征点,当ToF相机得到灰度图,处理器可以检测灰度图中每个特征点在该灰度图中的坐标。
步骤2105:处理器判断存储的灰度图数量是否等于预设采集的灰度图的数量。若为是,执行步骤2106;若为否,执行步骤2101。
可以理解的,如果已经存储的灰度图数量等于预设所需灰度图的数量,则所需标定图像采集完毕则不需要再转动可调反射装置获取灰度图,从而完成对测试板的拍摄。
步骤2106:处理器根据采集到的灰度图中特征点的坐标,以及采集该灰度图像之前的驱动信号,生成该ToF相机的标定信息。
可以理解的,采集得到多张灰度图之后,处理器可以检测出每张灰度图中特征点的坐标。例如,采集得到的第一张灰度图中每个特征点的坐标分别为(x1,y1),(x2,y2),(x3,y3)……和(xn,yn)。可以理解的,当ToF相机得到第一张灰度图,ToF相机的处理器向可调反射装置发送第二驱动信号,ToF相机的可调反射装置在第二驱动信号的作用下转动并采集得到第二张灰度图。ToF相机检测出第二张灰度图中每个特征点的坐标,ToF相机的处理器可以根据第一张灰度图中同一个特征点的坐标变化得到第二驱动信号与可调反射装置的转动角度的关系。
例如,第一特征点在第一灰度图中的坐标为(1,1),第二驱动信号为(+1v,+1v),ToF相机采集得到的第二灰度图中第一特征点的坐标为(2,2)。则ToF相机可以确定驱动信号为(+1v,+1v)时,可调反射装置的转动角度为第二角度,目标对象的图像采集区域为横向向右移动一个单位,纵向向上移动一个单位。
具体的,ToF相机可以采集多张的灰度图以及存储每个灰度图之前的驱动信号,处理器可以使用二阶或三阶的数学模型来拟合可调反射装置的驱动信号与采集到的深度图像中的特征点坐标变化量的关系,生成标定信息。该标定信息可以用于标定可调反射装置的位置,例如,ToF相机可以根据当前采集得到的灰度图中的特征点的坐标,以及需要可调反射装置转动到的预设位置对应的灰度图中特征点的坐标,确定出可调反射装置的驱动信号。
请参考图49,图49为本申请实施例提供的一种基于深度相机的自动对焦方法。该方法可以应用于电子设备,该电子设备包括RGB相机(也即彩色相机)和ToF相机。
方法包括:
步骤301:初始化可调反射装置的位置。也即,处理器控制可调反射装置处于原点位置。
步骤302:控制ToF相机采集目标对象的原点深度图像。也即,通过ToF相机采集目标对象的原点区域的反射光线,处理器形成对应的原点深度图像。
步骤303:依据原点深度图像识别目标对象的深度。此时,处理器可以从原点深度图像中进行简单的深度获取,以作为目标对象的初步深度信息。
步骤304:依据目标对象的深度,驱动RGB相机对焦。
在本实施例中,原点深度图像用于提供简单的深度信息,因此自动对焦方法对原点深度图像的分辨率需求很低,ToF相机的图像传感器的分辨率即可满足,因此通过一次成像即可获得原点深度图像。此外,当原点深度图像需求很低时,也可以采用Binning方式读取目标对象的深度。其中,Binning方式是一种图像读出模式,将相邻像元感应的电荷加在一起,以一个像素的模式读出。
可以理解的是,该自动对焦方法主要用于电子设备的RGB相机的初步快速对焦,用于提高RGB相机的对焦效率、降低系统功耗。RGB相机的完整对焦过程还可以结合其他对焦方法实现,本申请对此不做严格限定。
请参考图50,图50为本申请实施例提供的一种具备dToF相机的电子设备的结构示意图。本实施例电子设备可以包括前文实施例电子设备的部分特征,以下主要说明两者的区别,两者相同的大部分内容不再赘述。
如图50所示,电子设备900可以包括处理器901,外部存储器接口902,内部存储器903,充电管理模块904,电源管理模块905,电池906,移动通信模块907,摄像头模块908,dToF摄像头成像模块909和显示模块950。其中,dToF摄像头成像模块909中包括光发射装置910,光接收装置920,可调反射装置930和驱动电路940。
其中,本申请实施例中的电子设备900可以是照相机(例如数码相机)、手机、平板电脑、桌面型、膝上型、手持计算机、笔记本电脑、车载设备、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本,以及蜂窝电话、个人数字助理(personaldigital assistant,PDA)、增强现实(augmented reality,AR)\虚拟现实(virtualreality,VR)设备等,本申请实施例对该电子设备900的具体形态不作特殊限制。
在一些实施例中,光发射装置910用于发射光信号。光发射装置910可以与处理器901连接,光发射装置910可以接收处理器901发出的光发射信号,响应于光发射信号发射光信号。可调反射装置930与驱动电路940连接。驱动电路940可以向可调反射装置930发送驱动信号,可调反射装置74在驱动信号的作用下转动。
处理器901可以控制dToF摄像头成像模块909中的光发射装置910发射光信号,光信号可以传播至目标对象并被目标对象反射。光接收装置920可以接收目标对象反射的光信号时,处理器901可以根据光接收装置920接收到光信号的时间计算目标对象的深度信息。处理器901还可以向驱动电路940发送控制信息,控制信息中可以包括可调反射装置930的转动角度。
当电子设备900使用dToF摄像头成像模块909获取深度图像时,可以通过上述的方式获取深度图像。可以理解的,电子设备900中可以安装多个应用程序,电子设备900中的应用程序可以调用电子设备900中的dToF摄像头成像模块909获取深度图像。例如,电子设备900的一个应用在运行的过程中调用了dToF摄像头成像模块909拍摄深度图像,电子设备900可以根据调用该dToF摄像头成像模块909的应用确定dToF摄像头成像模块909需要拍摄的深度图像的分辨率。假设该应用为3D建模,则电子设备900可以确定dToF摄像头成像模块909拍摄的深度图像的目标分辨率为640*480。或者,该应用为相机应用,则电子设备900可以确定dToF摄像头成像模块909拍摄的深度图像的目标分辨率为320*240等。其中,深度图像还可以应用于人脸识别、头像解锁、手势识别、3D游戏、智能家居等场景。
以上内容,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何在本申请揭露的技术范围内的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (36)
1.一种电子设备,其特征在于,包括:光发射装置、光接收装置和处理器;其中,所述光接收装置包括:图像传感器、接收透镜和致动装置;
所述处理器,用于向所述致动装置发送驱动信号,所述驱动信号用于指示所述致动装置带动所述图像传感器或者接收透镜移动至预设位置;
所述致动装置,用于按照所述驱动信号,带动所述图像传感器或者接收透镜移动至所述预设位置;
所述光发射装置,用于发射第一光信号,所述光发射装置发射的所述第一光信号照射在目标对象上,并被所述目标对象反射为第二光信号;
所述接收透镜,用于接收所述第二光信号,并将所述第二光信号折射为第三光信号;
所述图像传感器,用于接收所述第三光信号;
所述处理器,用于根据所述图像传感器接收到所述第三光信号的时间,以及所述光发射装置发射所述第一光信号的时间,获得所述预设位置对应的第一深度图像;
所述处理器,还用于对N个不同的预设位置对应的第一深度图像进行图像耦合,生成所述目标对象的深度图像,N≥2,N为正整数。
2.根据权利要求1所述的电子设备,其特征在于,所述处理器,还用于获取目标分辨率,并根据所述目标分辨率和所述电子设备的分辨率,确定所述N个不同的预设位置。
3.根据权利要求2所述的电子设备,其特征在于,所述处理器,还用于若所述电子设备的分辨率小于所述目标分辨率,则根据所述目标分辨率和所述电子设备的分辨率,确定所述N个不同的预设位置。
4.根据权利要求1至3中任一项所述的电子设备,其特征在于,所述致动装置与所述图像传感器固定连接,所述驱动信号用于指示所述致动装置带动所述图像传感器移动至所述预设位置;
其中,所述图像传感器的第一面用于接收所述第三光信号,所述致动装置与所述图像传感器的第二面固定连接。
5.根据权利要求4所述的电子设备,其特征在于,所述光接收装置还包括印刷电路板;
所述图像传感器设置在所述印刷电路板上,且所述图像传感器的第二面与所述印刷电路板固定连接,所述致动装置与所述印刷电路板固定连接;
所述致动装置,用于按照所述驱动信号,带动所述印刷电路板移动,以使得所述印刷电路板带动所述图像传感器移动至所述预设位置。
6.根据权利要求1至3中任一项所述的电子设备,其特征在于,所述致动装置与所述接收透镜固定连接,所述驱动信号用于指示所述致动装置带动所述接收透镜移动至所述预设位置;
其中,所述接收透镜包括镜筒和至少一个透镜,所述至少一个透镜设置在所述镜筒中;所述致动装置与所述镜筒固定连接。
7.根据权利要求1至6中任一项所述的电子设备,其特征在于,所述致动装置为微机电系统MEMS,或者,所述致动装置为电机。
8.根据权利要求1至7中任一项所述的电子设备,其特征在于,所述图像传感器为单光子探测器SPAD阵列;所述SPAD阵列中包括多个SPAD。
9.根据权利要求1至8中任一项所述的电子设备,其特征在于,所述电子设备为3D相机。
10.一种电子设备,其特征在于,包括:光发射装置、光接收装置、可调反射装置以及处理器;
所述处理器,用于向所述可调反射装置发送驱动信号,所述驱动信号用于指示所述可调反射装置转动至预设位置;
所述可调反射装置,用于按照所述驱动信号,转动至所述预设位置;
所述光发射装置,用于发射第一光信号,所述第一光信号照射在目标对象上,并被所述目标对象反射为第二光信号,所述第二光信号射向所述可调反射装置;
所述光接收装置,用于接收被所述可调反射装置反射的所述第二光信号;
所述处理器,用于根据所述光接收装置接收到所述第二光信号的时间,以及所述光发射装置发射所述第一光信号的时间,获得所述预设位置对应的第一深度图像;
所述处理器,还用于对N个不同的预设位置对应的第一深度图像进行图像融合,生成所述目标对象的深度图像,N≥2,N为正整数。
11.根据权利要求10所述的电子设备,其特征在于,所述处理器,还用于获取目标分辨率,并根据所述目标分辨率和所述电子设备的分辨率,确定所述N个不同的预设位置。
12.根据权利要求11所述的电子设备,其特征在于,所述处理器,还用于若所述电子设备的分辨率小于所述目标分辨率,则根据所述目标分辨率和所述电子设备的分辨率,确定所述N个不同的预设位置。
13.根据权利要求10至12中任一项所述的电子设备,其特征在于,所述可调反射装置包括驱动部件和安装于所述驱动部件的反射镜,所述驱动部件用于按照所述驱动信号,带动所述反射镜转动至预设位置。
14.根据权利要求13所述的电子设备,其特征在于,所述驱动部件为微机电系统MEMS,或者,所述驱动部件为电机。
15.根据权利要求13或14所述的电子设备,其特征在于,所述驱动部件具有零位(0°,0°)和四个停留角度,四个所述停留角度分别为(﹢α,﹢β)、(﹢α,-β)、(-α,﹢β)及(-α,-β),其中,α和β为正数值角度,四个所述停留角度与四个所述预设位置一一对应。
16.根据权利要求10至15中任一项所述的电子设备,其特征在于,所述电子设备还包括分光装置,所述分光装置包括两个光路路径,其中一个所述光路路径用于使所述第一光信号投射至所述可调反射装置,所述第一光信号被所述可调反射装置反射后照射在所述目标对象上,另一个所述光路路径用于使被所述可调反射装置反射后的所述第二光信号进入所述光接收装置。
17.根据权利要求16所述的电子设备,其特征在于,所述分光装置的两个光路路径包括光透射路径和光反射路径;
所述第一光信号经所述分光装置的光透射路径投射至所述可调反射装置,被所述可调反射装置反射的所述第二光信号经所述光反射路径进入所述光接收装置;或者,
所述第一光信号经所述分光装置的光反射路径投射至所述可调反射装置,被所述可调反射装置反射的所述第二光信号经所述光透射路径进入所述光接收装置。
18.根据权利要求10至17中任一项所述的电子设备,其特征在于,所述可调反射装置处于原点位置时,所述接收透镜的视场经所述可调反射装置反射后,覆盖所述目标对象的原点区域,所述原点区域的面积小于所述目标对象的面积,所述第一光信号被所述原点区域反射为所述第二光信号。
19.根据权利要求18所述的电子设备,其特征在于,所述电子设备还包括RGB相机,所述RGB相机的视场覆盖所述目标对象,所述接收透镜的视场角小于所述RGB相机的视场角。
20.根据权利要求18或19所述的电子设备,其特征在于,所述接收透镜的视场角小于或等于60°。
21.根据权利要求10至20中任一项所述的电子设备,其特征在于,所述图像传感器为单光子探测器SPAD阵列;所述SPAD阵列中包括多个SPAD。
22.根据权利要求10至21中任一项所述的电子设备,其特征在于,所述电子设备为3D相机。
23.一种深度图像的拍摄方法,其特征在于,应用于电子设备,所述方法包括:
控制图像传感器或者接收透镜移动至预设位置;
控制光发射装置发射第一光信号,其中,所述第一光信号照射在目标对象上,被所述目标对象反射为第二光信号;
控制光接收装置的图像传感器接收第三光信号,其中,所述第二光信号被所述光接收装置的接收透镜折射为所述第三光信号;
根据所述图像传感器接收到所述第三光信号的时间,以及所述光发射装置发射所述第一光信号的时间,获得所述预设位置对应的第一深度图像;
对N个不同的预设位置对应的第一深度图像进行图像融合,生成所述目标对象的深度图像;其中,N≥2,N为正整数。
24.根据权利要求23所述的方法,其特征在于,所述方法还包括:
控制所述图像传感器或者接收透镜,分别移动至N个预设位置中的每个预设位置,以采集N个第一深度图像;其中,所述N个第一深度图像与所述N个预设位置一一对应。
25.一种深度图像的拍摄方法,其特征在于,应用于电子设备,所述方法包括:
控制可调反射装置转动至预设位置;
控制光发射装置发射第一光信号;其中,所述第一光信号照射在目标对象上,被所述目标对象反射为第二光信号,所述第二光信号射向所述可调反射装置;
控制光接收装置接收被所述可调反射装置反射的第二光信号;
根据所述光接收装置接收到第二光信号的时间,以及所述光发射装置发射所述第一光信号的时间,获得所述预设位置对应的第一深度图像;
对N个不同的预设位置对应的第一深度图像进行图像融合,生成所述目标对象的深度图像;其中,N≥2,N为正整数。
26.根据权利要求25所述的方法,其特征在于,所述方法还包括:
控制所述可调反射装置分别转动至N个预设位置中的每个预设位置,以采集N个第一深度图像;其中,所述N个第一深度图像与所述N个预设位置一一对应。
27.根据权利要求23至26中任一项所述的方法,其特征在于,所述方法还包括:
获取待生成目标对象的深度图像的目标分辨率;
根据所述电子设备的分辨率和所述目标分辨率,确定用于采集所述第一深度图像的N个预设位置。
28.根据权利要求27所述的方法,其特征在于,所述获取待生成的深度图像的目标分辨率,包括:
根据拍摄模式确定待生成深度图像的目标分辨率,或者,
接收到用户输入的分辨率,将所述用户输入的分辨率作为待生成深度图像的目标分辨率。
29.根据权利要求27或28所述的方法,其特征在于,所述根据所述电子设备的分辨率和所述目标分辨率,确定用于采集所述第一深度图像的N个预设位置,包括:
若所述电子设备的分辨率小于所述目标分辨率,则根据所述电子设备的分辨率和所述目标分辨率,确定用于采集所述第一深度图像的N个预设位置。
30.根据权利要求29所述的方法,其特征在于,所述根据所述电子设备的分辨率和所述目标分辨率,确定用于采集所述第一深度图像的N个预设位置,包括:
计算所述目标分辨率与所述电子设备的分辨率的比值,并根据计算得到的所述比值确定采集N个深度图像;
从预先配置的M个预设位置中选择N个不同的预设位置,其中,M为正整数,且M≥N。
31.根据权利要求23至30中任一项所述的方法,其特征在于,所述电子设备对N个所述第一深度图像进行图像融合,生成所述目标对象的深度图像,包括:
对N个所述第一深度图像进行微步超分,将微步超分的N个所述第一深度图像拼接融合,得到所述目标对象的深度图像。
32.根据权利要求25或26所述的方法,其特征在于,所述电子设备对N个所述第一深度图像进行图像融合,生成所述目标对象的深度图像,包括:
对N个所述第一深度图像进行直接拼接融合,得到所述目标对象的深度图像。
33.根据权利要求32所述的方法,其特征在于,所述第二光信号为所述第一光信号被所述目标对象的预设区域反射形成的光线,其中,所述可调反射装置处于所述预设位置时,所述接收透镜的视场经所述可调反射装置反射后,覆盖的所述目标对象的预设区域,所述预设区域的面积小于所述目标对象的面积。
34.根据权利要求33所述的方法,其特征在于,所述接收透镜的视场角小于或等于60°。
35.一种计算机可读存储介质,其特征在于,包括计算机指令,当所述计算机指令在电子设备上运行时,使得所述电子设备执行如权利要求23至34中任一项所述的方法。
36.一种计算机程序产品,其特征在于,当所述计算机程序产品在计算机上运行时,使得所述计算机执行如权利要求23至34中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2021/103753 WO2022002162A1 (zh) | 2020-05-29 | 2021-06-30 | 一种电子设备和深度图像的拍摄方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010482139 | 2020-05-29 | ||
CN202010482139X | 2020-05-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113747141A true CN113747141A (zh) | 2021-12-03 |
Family
ID=78728083
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010617723.1A Pending CN113747141A (zh) | 2020-05-29 | 2020-06-30 | 一种电子设备和深度图像的拍摄方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113747141A (zh) |
WO (1) | WO2022002162A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117389422A (zh) * | 2023-10-24 | 2024-01-12 | 深圳市旅途供应链管理有限公司 | 磁吸式折叠键盘鼠标一体化的电脑组件 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118283416A (zh) * | 2022-09-30 | 2024-07-02 | 荣耀终端有限公司 | 对dtof器件的控制方法及装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106303306A (zh) * | 2015-06-22 | 2017-01-04 | 豪威科技股份有限公司 | 具有单光子雪崩二极管和传感器平移的成像系统,及相关的方法 |
CN108253937A (zh) * | 2017-12-05 | 2018-07-06 | 汪奕辰 | 视觉雷达系统 |
CN108471525A (zh) * | 2018-03-27 | 2018-08-31 | 百度在线网络技术(北京)有限公司 | 用于投影仪的控制方法和装置 |
WO2019098793A1 (ko) * | 2017-11-17 | 2019-05-23 | 엘지이노텍(주) | 카메라 모듈 |
WO2019193337A1 (en) * | 2018-04-04 | 2019-10-10 | Cambridge Mechatronics Limited | Apparatus and methods for 3d sensing |
CN110703224A (zh) * | 2019-12-16 | 2020-01-17 | 杭州辰知光科技有限公司 | 一种面向无人驾驶的扫描型tof激光雷达 |
CN110716206A (zh) * | 2018-07-13 | 2020-01-21 | 探维科技(北京)有限公司 | 激光雷达系统 |
CN111025318A (zh) * | 2019-12-28 | 2020-04-17 | 深圳奥比中光科技有限公司 | 一种深度测量装置及测量方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8878950B2 (en) * | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
US9432563B2 (en) * | 2012-08-08 | 2016-08-30 | Broadcom Corporation | Three-dimensional imaging through multi-image processing |
KR102486426B1 (ko) * | 2018-02-23 | 2023-01-09 | 엘지이노텍 주식회사 | 카메라 모듈 |
KR102514487B1 (ko) * | 2018-06-07 | 2023-03-27 | 엘지이노텍 주식회사 | 카메라 모듈 및 그의 깊이 정보 추출 방법 |
CN109618085B (zh) * | 2019-01-04 | 2021-05-14 | Oppo广东移动通信有限公司 | 电子设备和移动平台 |
CN111025321B (zh) * | 2019-12-28 | 2022-05-27 | 奥比中光科技集团股份有限公司 | 一种可变焦的深度测量装置及测量方法 |
-
2020
- 2020-06-30 CN CN202010617723.1A patent/CN113747141A/zh active Pending
-
2021
- 2021-06-30 WO PCT/CN2021/103753 patent/WO2022002162A1/zh active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106303306A (zh) * | 2015-06-22 | 2017-01-04 | 豪威科技股份有限公司 | 具有单光子雪崩二极管和传感器平移的成像系统,及相关的方法 |
WO2019098793A1 (ko) * | 2017-11-17 | 2019-05-23 | 엘지이노텍(주) | 카메라 모듈 |
CN108253937A (zh) * | 2017-12-05 | 2018-07-06 | 汪奕辰 | 视觉雷达系统 |
CN108471525A (zh) * | 2018-03-27 | 2018-08-31 | 百度在线网络技术(北京)有限公司 | 用于投影仪的控制方法和装置 |
WO2019193337A1 (en) * | 2018-04-04 | 2019-10-10 | Cambridge Mechatronics Limited | Apparatus and methods for 3d sensing |
CN110716206A (zh) * | 2018-07-13 | 2020-01-21 | 探维科技(北京)有限公司 | 激光雷达系统 |
CN110703224A (zh) * | 2019-12-16 | 2020-01-17 | 杭州辰知光科技有限公司 | 一种面向无人驾驶的扫描型tof激光雷达 |
CN111025318A (zh) * | 2019-12-28 | 2020-04-17 | 深圳奥比中光科技有限公司 | 一种深度测量装置及测量方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117389422A (zh) * | 2023-10-24 | 2024-01-12 | 深圳市旅途供应链管理有限公司 | 磁吸式折叠键盘鼠标一体化的电脑组件 |
Also Published As
Publication number | Publication date |
---|---|
WO2022002162A1 (zh) | 2022-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111901503B (zh) | 一种摄像模组、终端设备、成像方法及成像装置 | |
WO2020057208A1 (zh) | 电子设备 | |
WO2020057205A1 (zh) | 屏下光学系统、衍射光学元件的设计方法及电子设备 | |
CN108718406B (zh) | 一种可变焦3d深度相机及其成像方法 | |
CN109639997B (zh) | 图像处理方法、电子装置及介质 | |
CN107783353B (zh) | 用于捕捉立体影像的装置及系统 | |
CN101770573A (zh) | 用于虹膜识别的自动聚焦虹膜图像成像装置及其控制方法 | |
CN105704380A (zh) | 一种摄像头对焦方法及电子设备 | |
US11977167B2 (en) | Efficient algorithm for projecting world points to a rolling shutter image | |
US20220329735A1 (en) | Photographing method, camera module, and electronic device | |
US11796893B2 (en) | Compact camera module and terminal device | |
WO2022002162A1 (zh) | 一种电子设备和深度图像的拍摄方法 | |
US20230026858A1 (en) | Optical transmitting apparatus and electronic device | |
KR102068744B1 (ko) | 초점 검출장치 | |
US20240053479A1 (en) | Tof apparatus and electronic device | |
CN113534484A (zh) | 一种光发射装置及电子设备 | |
CN210670291U (zh) | 摄像模组和电子设备 | |
CN113052884A (zh) | 信息处理方法、信息处理装置、存储介质与电子设备 | |
US20120228482A1 (en) | Systems and methods for sensing light | |
CN110596996B (zh) | 一种投影机及自动几何校正方法 | |
US6297881B1 (en) | Three-dimensional measurement method and three-dimensional measurement device | |
CN109788196B (zh) | 电子设备和移动平台 | |
CN205726013U (zh) | 一种电子设备 | |
CN213126152U (zh) | 光路改变组件、感光组件、镜头组件、摄像模组及终端 | |
US20240201564A1 (en) | Camera actuator, and camera device and optical device comprising same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |