CN112085647B - 一种人脸校正方法及电子设备 - Google Patents
一种人脸校正方法及电子设备 Download PDFInfo
- Publication number
- CN112085647B CN112085647B CN201910514753.7A CN201910514753A CN112085647B CN 112085647 B CN112085647 B CN 112085647B CN 201910514753 A CN201910514753 A CN 201910514753A CN 112085647 B CN112085647 B CN 112085647B
- Authority
- CN
- China
- Prior art keywords
- face
- image
- electronic device
- orientation
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000012937 correction Methods 0.000 title claims abstract description 57
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims abstract description 60
- 230000009466 transformation Effects 0.000 claims abstract description 54
- 210000001508 eye Anatomy 0.000 claims description 25
- 210000004709 eyebrow Anatomy 0.000 claims description 11
- 230000007797 corrosion Effects 0.000 claims description 10
- 238000005260 corrosion Methods 0.000 claims description 10
- 210000001061 forehead Anatomy 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 238000004891 communication Methods 0.000 abstract description 54
- 238000012545 processing Methods 0.000 abstract description 33
- 230000006870 function Effects 0.000 description 27
- 230000004927 fusion Effects 0.000 description 21
- 230000008569 process Effects 0.000 description 16
- 238000007726 management method Methods 0.000 description 15
- 238000010295 mobile communication Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 10
- 210000000214 mouth Anatomy 0.000 description 10
- 230000005236 sound signal Effects 0.000 description 10
- 210000000988 bone and bone Anatomy 0.000 description 9
- 210000001331 nose Anatomy 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 238000005457 optimization Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 210000000887 face Anatomy 0.000 description 4
- 238000007500 overflow downdraw method Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005530 etching Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000002096 quantum dot Substances 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000010985 leather Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000002138 osteoinductive effect Effects 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/02—Affine transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本申请实施例公开了一种人脸校正方法及电子设备,涉及图像处理领域,使得视频时沟通更自然,提高了沟通效率。具体方案为:获取原2D图像和3D人脸模型,原2D图像和3D人脸模型中人脸面部并未正对显示屏;对3D人脸模型中的3D人脸进行面部朝向校正,校正后的3D人脸模型中人脸面部正对显示屏;对校正后的3D人脸模型进行投影获得2D人脸图像;以该2D人脸图像中的人脸面部图像为目标,对原2D图像中的人脸面部图像进行仿射变换;根据2D人脸图像的人脸面部的掩码,将进行仿射变换后的原2D图像和2D人脸图像进行融合获得人脸面部正对显示屏的2D图像。
Description
技术领域
本申请涉及图像处理领域,尤其涉及一种人脸校正方法及电子设备。
背景技术
随着移动互联网的发展,视频会议和视频聊天的应用越来越广泛。在进行视频会议或视频聊天的过程中,如果视频双方能够进行眼神交互,则能给视频参与者带来良好的交流体验。一般而言,在进行视频会议或视频聊天时,只有在视频参与者的面部和视线朝向摄像头时,对方才会觉得视频画面中的人与自己存在眼神交互。如果视频参与者面部或视线朝向的是显示屏,而不是摄像头,则对方会觉得该视频参与者眼睛看向别处,与自己并没有眼神交流。
例如,如图1所示,用户1利用台式电脑与用户2进行视频会议。该台式电脑的显示屏与摄像头之间存在一定的角度和距离。又例如,如图2所示,用户1利用华为笔记本电脑与用户2进行视频聊天。华为笔记本电脑的摄像头为隐藏式设计,位于显示屏的下方(图2中仅是为了示意出摄像头的位置,不表示摄像头的实际设置方式)。结合图1或图2,在用户1与用户2视频的过程中,如果用户1看向显示屏,也即其面部或视线并未朝向摄像头,那么该摄像头采集到的视频画面中用户1的面部或视线朝向并未正对显示屏。这样,用户2在视频画面中会看到用户1看向别处。例如,如图3所示,用户2看到的视频画面中,用户1的面部朝上,眼睛向上看,与自己并没有进行眼神交流。这会导致沟通不自然,降低沟通效率。
发明内容
本申请实施例提供一种人脸校正方法及电子设备,解决了在显示屏与摄像头之间存在一定的角度或距离时,如果用户未看向摄像头而是看向显示屏,使得对方看到的视频画面中人看向别处,与自己没有眼神交流,导致沟通不自然,沟通效率低下的问题。
为了达到上述目的,本申请实施例采用如下技术方案:
第一方面,本申请实施例提供一种人脸校正方法,该方法可以包括:电子设备获取第一2D图像,该第一2D图像中的人脸面部的朝向与电子设备的显示屏的垂线不平行,即第一2D图像中的人脸面部并未正对电子设备的显示屏;电子设备获取3D人脸模型,该3D人脸模型中人脸面部的朝向与摄像头捕获第一2D图像时用户人脸相对于摄像头的朝向相同,该3D人脸模型中人脸面部也并未正对显示屏;电子设备对3D人脸模型中的3D人脸进行面部朝向校正,校正后的3D人脸模型中人脸面部的朝向与显示屏的垂线平行,也就是说,校正后的3D人脸模型中人脸面部正对显示屏;电子设备对校正后的3D人脸模型进行投影,获得2D人脸图像,该2D人脸图像中人脸面部的朝向与显示屏的垂线平行,即该2D人脸图像中人脸面部针正对显示屏;电子设备以2D人脸图像中的人脸面部图像为目标,对第一2D图像中的人脸面部图像进行仿射变换(或透视变换);电子设备生成2D人脸图像的人脸面部的掩码(mask);电子设备根据2D人脸图像的人脸面部的mask,将进行仿射变换后的第一2D图像和2D人脸图像进行融合,获得第二2D图像,该第二2D图像中人脸面部的朝向与显示屏的垂线平行,即该第二2D图像中人脸面部正对显示屏。
本申请实施例提供的人脸校正方法,获取原2D图像和3D人脸模型,通过对3D人脸模型中的3D人脸进行校正后重新投影得到2D人脸图像。另外,通过对原2D图像进行人脸仿射变换(或透视变换),并基于人脸掩码对进行仿射变换后的原2D图像和2D人脸图像进行无缝融合,实现了对人脸朝向的校正。使得对端用户观看到的视频画面中的人不会看向别处,会觉得视频画面中的人与自己存在眼神交流,使得沟通更自然,提高沟通效率。且这种融合方法计算量小,无需占用很多资源。
结合第一方面,在一种可能的实现方式中,上述电子设备还可包括上述摄像头,该摄像头和显示屏之间存在以下至少一种关系:该摄像头的朝向与电子设备的显示屏的朝向不同,摄像头与显示屏之间存在距离;上述电子设备获取第一2D图像,可以包括:电子设备通过摄像头采集图像序列,该图像序列中包括第一2D图像。在用户利用电子设备与其他用户视频时,对于摄像头采集到的图像序列中,用户面部朝向不是正对显示屏的2D图像可以通过本实施例提供的方法进行人脸校正或视线校正,还可同时进行人脸和视线的校正,使得沟通更自然。
结合第一方面或上述可能的实现方式,在另一种可能的实现方式中,上述摄像头可以为2D摄像头;电子设备获取3D人脸模型,具体的可以包括:电子设备根据第一2D图像进行人脸3D重建,获得3D人脸模型。如果上述摄像头是3D摄像头,则可直接通过3D摄像头获取3D人脸模型。如果上述摄像头是2D摄像头,则可以根据摄像头捕获的2D图像进行人脸3D重建,获得3D人脸模型。
结合第一方面或上述可能的实现方式,在另一种可能的实现方式中,上述电子设备根据第一2D图像进行人脸3D重建,获得3D人脸模型,具体的可以包括:电子设备对第一2D图像进行检测,获取人脸面部的轮廓和特征点的位置,该特征点可以包括人脸的眉毛,眼睛,鼻子及嘴巴对应位置处的特征点;电子设备根据人脸面部的轮廓和特征点的位置进行人脸3D重建,获得3D人脸模型。通过对第一2D图像进行人脸检测,可获得人脸面部的轮廓和特征点的位置。根据人脸面部轮廓和特征点可实现人脸3D重建,获得3D人脸模型。
结合第一方面或上述可能的实现方式,在另一种可能的实现方式中,上述电子设备对3D人脸模型中的3D人脸进行面部朝向校正,具体的可以包括:电子设备获取摄像头的朝向与显示屏的朝向的夹角;电子设备根据摄像头的朝向与显示屏的朝向的夹角,对3D人脸模型中的3D人脸进行面部朝向校正。根据摄像头与显示屏的朝向的夹角对3D人脸模型中的3D人脸的面部朝向进行校正,可使得校正后的3D人脸模型中的3D人脸正对显示屏。
结合第一方面或上述可能的实现方式,在另一种可能的实现方式中,上述电子设备对校正后的3D人脸模型进行投影,获得2D人脸图像,具体的可以包括:电子设备对校正后的3D人脸模型进行投影,获得人脸投影图像;电子设备根据校正3D人脸模型中3D人脸的面部朝向时对3D人脸旋转的角度和方向,对人脸投影图像的中的人脸位置进行调整,获得2D人脸图像。通过对获得的人脸投影图像中人脸位置的调制,可进一步的对用户的视线朝向进行校正,使得沟通更自然,进一步的提高沟通效率。
结合第一方面或上述可能的实现方式,在另一种可能的实现方式中,在上述获得2D人脸图像之后,该方法还可以包括:电子设备对2D人脸图像进行检测,获取2D人脸图像的控制点的位置,人脸面部的特征点的位置以及人脸面部的轮廓;其中,控制点可以包括以下至少一个位置处的特征点:人脸的额头对应位置处的特征点,人的颈部对应位置处的特征点;在人脸面部的轮廓中,人脸下巴对应位置处的特征点是2D人脸图像对应位置处的特征点,人脸面部的轮廓中除人脸下巴对应位置处的特征点是第一2D图像对应位置处的特征点;另外,对上述第一2D图像的检测时,也可以获得第一2D图像的特征点的位置;电子设备以2D人脸图像中的人脸面部图像为目标,对第一2D图像中的人脸面部图像进行仿射变换,具体的可以包括:电子设备根据2D人脸图像的人脸面部的特征点的位置,控制点的位置,以及人脸面部的轮廓,对2D人脸图像中的人脸面部图像进行区域划分,得到多个第一区域块;电子设备根据第一2D图像的人脸面部的特征点的位置,控制点的位置,以及人脸面部的轮廓,对第一2D图像中的人脸面部图像进行区域划分,得到多个第二区域块;其中,多个第一区域块与多个第二区域块一一对应,第一2D图像的控制点的位置是对第一2D图像进行检测得到的;电子设备以2D人脸图像中每个第一区域块为目标,对第一2D图像中对应的每个第二区域块进行仿射变换。由于单检测人脸轮廓和眉毛、眼睛、鼻子及嘴巴对应位置处的特征点,获得的轮廓区域有限。通过在这些特征点的基础上,进一步的增加额头和颈部中至少一个位置处的特征点,用于识别人脸轮廓区域,以保护第一2D图像在人脸变形(如上述仿射变换)时人脸轮廓不会变化。
结合第一方面或上述可能的实现方式,在另一种可能的实现方式中,在上述生成2D人脸图像的人脸面部的掩码之后,该方法还可以包括:电子设备对2D人脸图像的人脸面部的mask进行腐蚀处理;上述电子设备根据2D人脸图像的人脸面部的mask,将进行仿射变换后的第一2D图像和2D人脸图像进行融合,获得第二2D图像,具体的可以包括:电子设备根据腐蚀处理后的2D人脸图像的人脸面部的mask,将进行仿射变换后的第一2D图像和2D人脸图像进行融合,获得第二2D图像。可以通过对生成的2D人脸图像的人脸面部的掩码进行腐蚀优化处理,以缩小人脸面部的掩码面积,然后,再利用进行腐蚀优化后的人脸面部掩码进行图像的无缝拼接融合。
结合第一方面或上述可能的实现方式,在另一种可能的实现方式中,在上述获得第二2D图像后,该方法还可以包括:电子设备用第二2D图像覆盖第一2D图像对应区域中的图像,生成校正后的图像。这样,可以较真实的保护背景信息。
第二方面,本申请实施例提供一种电子设备,该电子设备可以包括:处理器,存储器和显示屏;处理器,存储器以及显示屏耦合,存储器可用于存储计算机程序代码,计算机程序代码包括计算机指令,当计算机指令被电子设备执行时,使得电子设备执行如下操作:获取第一2D图像,该第一2D图像中的人脸面部的朝向与显示屏的垂线不平行;获取3D人脸模型,该3D人脸模型中人脸面部的朝向与摄像头捕获第一2D图像时用户人脸相对于摄像头的朝向相同;对3D人脸模型中的3D人脸进行面部朝向校正,校正后的3D人脸模型中人脸面部的朝向与显示屏的垂线平行;对校正后的3D人脸模型进行投影,获得2D人脸图像,2D人脸图像中人脸面部的朝向与显示屏的垂线平行;以2D人脸图像中的人脸面部图像为目标,对第一2D图像中的人脸面部图像进行仿射变换;生成2D人脸图像的人脸面部的掩码(mask);根据2D人脸图像的人脸面部的mask,将进行仿射变换后的第一2D图像和2D人脸图像进行融合,获得第二2D图像,第二2D图像中人脸面部的朝向与显示屏的垂线平行。
结合第二方面,在一种可能的实现方式中,电子设备还可包括上述摄像头,摄像头和显示屏之间存在以下至少一种关系:摄像头的朝向与显示屏的朝向不同,摄像头与显示屏之间存在距离;上述获取第一2D图像,具体可以为:通过摄像头采集图像序列,图像序列中包括第一2D图像。
结合第二方面或上述可能的实现方式,在另一种可能的实现方式中,上述摄像头可以为2D摄像头;上述获取3D人脸模型,具体可以为:根据第一2D图像进行人脸3D重建,获得3D人脸模型。
结合第二方面或上述可能的实现方式,在另一种可能的实现方式中,上述根据第一2D图像进行人脸3D重建,获得3D人脸模型,具体可以为:对第一2D图像进行检测,获取人脸面部的轮廓和特征点的位置,特征点包括人脸的眉毛,眼睛,鼻子及嘴巴对应位置处的特征点;根据人脸面部的轮廓和特征点的位置进行人脸3D重建,获得3D人脸模型。
结合第二方面或上述可能的实现方式,在另一种可能的实现方式中,上述对3D人脸模型中的3D人脸进行面部朝向校正,具体可以为:获取摄像头的朝向与显示屏的朝向的夹角;根据摄像头的朝向与显示屏的朝向的夹角,对3D人脸模型中的3D人脸进行面部朝向校正。
结合第二方面或上述可能的实现方式,在另一种可能的实现方式中,上述对校正后的3D人脸模型进行投影,获得2D人脸图像,具体可以为:对校正后的3D人脸模型进行投影,获得人脸投影图像;根据校正3D人脸模型中3D人脸的面部朝向时对3D人脸旋转的角度和方向,对人脸投影图像的中的人脸位置进行调整,获得2D人脸图像。
结合第二方面或上述可能的实现方式,在另一种可能的实现方式中,当计算机指令被电子设备执行时,还使得电子设备执行如下操作:对2D人脸图像进行检测,获取2D人脸图像的控制点的位置,人脸面部的特征点的位置以及人脸面部的轮廓;其中,控制点可以包括以下至少一个位置处的特征点:人脸的额头对应位置处的特征点,人的颈部对应位置处的特征点;在人脸面部的轮廓中,人脸下巴对应位置处的特征点是2D人脸图像对应位置处的特征点,人脸面部的轮廓中除人脸下巴对应位置处的特征点是第一2D图像对应位置处的特征点;上述以2D人脸图像中的人脸面部图像为目标,对第一2D图像中的人脸面部图像进行仿射变换,具体可以为:根据2D人脸图像的人脸面部的特征点的位置,控制点的位置,以及人脸面部的轮廓,对2D人脸图像中的人脸面部图像进行区域划分,得到多个第一区域块;根据第一2D图像的人脸面部的特征点的位置,控制点的位置,以及人脸面部的轮廓,对第一2D图像中的人脸面部图像进行区域划分,得到多个第二区域块,多个第一区域块与多个第二区域块一一对应,第一2D图像的控制点的位置是对第一2D图像进行检测得到的;以2D人脸图像中每个第一区域块为目标,对第一2D图像中对应的每个第二区域块进行仿射变换。
结合第二方面或上述可能的实现方式,在另一种可能的实现方式中,当计算机指令被电子设备执行时,还使得电子设备执行如下操作:对2D人脸图像的人脸面部的mask进行腐蚀处理;上述根据2D人脸图像的人脸面部的mask,将进行仿射变换后的第一2D图像和2D人脸图像进行融合,获得第二2D图像,具体可以为:根据腐蚀处理后的2D人脸图像的人脸面部的mask,将进行仿射变换后的第一2D图像和2D人脸图像进行融合,获得第二2D图像。
结合第二方面或上述可能的实现方式,在另一种可能的实现方式中,当计算机指令被电子设备执行时,还使得电子设备执行如下操作:用第二2D图像覆盖第一2D图像对应区域中的图像,生成校正后的图像。
第三方面,本申请实施例提供一种计算机可读存储介质,该计算机可读存储介质可以包括:计算机软件指令;当计算机软件指令在电子设备中运行时,使得该电子设备执行如第一方面或第一方面的可能实现方式中任一项所述的人脸校正方法。
第四方面,本申请实施例提供一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得该计算机执行如权利要求第一方面或第一方面的可能的实现方式中任一项所述的人脸校正方法。
第五方面,本申请实施例提供一种芯片系统,该芯片系统应用于电子设备;芯片系统包括接口电路和处理器;接口电路和处理器通过线路互联;接口电路用于从电子设备的存储器接收信号,并向处理器发送信号,信号包括存储器中存储的计算机指令;当处理器执行该计算机指令时,芯片系统执行如第一方面或第一方面的可能的实现方式中任一项所述的人脸校正方法。
第六方面,本申请实施例提供一种装置,该装置具有实现上述第一方面的方法中电子设备行为的功能。功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。硬件或软件包括一个或多个与上述功能相对应的模块,例如,获取单元或模块,校正单元或模块,投影单元或模块,变换单元或模块,生成单元或模块,融合单元或模块等。
第七方面,本申请实施例提供一种图形用户界面(graphical user interface,GUI),该图形用户界面存储在电子设备中,该电子设备包括显示器、存储器、一个或多个处理器;一个或多个处理器用于执行存储在存储器中的一个或多个计算机程序,该图形用户界面包括:显示在所述显示器上的GUI,该GUI包括视频画面,该视频画面中包括第一用户的人脸,该第一用户的人脸朝向正对显示屏,该视频画面是其他电子设备(如称为第二电子设备)传输给该电子设备的,第二电子设备包括显示屏和摄像头,且第二电子设备的显示屏和摄像头之间存在以下至少一种关系:摄像头的朝向与显示屏的朝向不同,摄像头与显示屏之间存在距离。
应当理解的是,本申请中对技术特征、技术方案、有益效果或类似语言的描述并不是暗示在任意的单个实施例中可以实现所有的特点和优点。相反,可以理解的是对于特征或有益效果的描述意味着在至少一个实施例中包括特定的技术特征、技术方案或有益效果。因此,本说明书中对于技术特征、技术方案或有益效果的描述并不一定是指相同的实施例。进而,还可以任何适当的方式组合本实施例中所描述的技术特征、技术方案和有益效果。本领域技术人员将会理解,无需特定实施例的一个或多个特定的技术特征、技术方案或有益效果即可实现实施例。在其他实施例中,还可在没有体现所有实施例的特定实施例中识别出额外的技术特征和有益效果。
附图说明
图1为本申请实施例提供的一种视频场景示意图;
图2为本申请实施例提供的另一种视频场景示意图;
图3为现有技术提供的一种视频画面示意图;
图4为本申请实施例提供的一种系统架构的组成示意图;
图5为本申请实施例提供的一种电子设备的结构示意图;
图6为本申请实施例提供的一种人脸校正方法的流程示意图;
图7为本申请实施例提供的另一种人脸校正方法的流程示意图;
图8为本申请实施例提供的一种视频画面示意图;
图9为本申请实施例提供的一种图像的处理示意图;
图10为本申请实施例提供的另一种图像的处理示意图;
图11为本申请实施例提供的又一种图像的处理示意图;
图12为本申请实施例提供的又一种图像的处理示意图;
图13为本申请实施例提供的又一种图像的处理示意图;
图14为本申请实施例提供的又一种图像的处理示意图;
图15为本申请实施例提供的又一种图像的处理示意图;
图16为本申请实施例提供的又一种图像的处理示意图;
图17为本申请实施例提供的又一种图像的处理示意图;
图18为本申请实施例提供的另一种视频画面示意图;
图19为本申请实施例提供的一种电子设备的组成示意图。
具体实施方式
为了解决在显示屏与摄像头之间存在一定的角度或距离时,如果用户未看向摄像头而是看向显示屏,使得对方看到的视频画面中人看向别处,与自己没有眼神交流,导致沟通不自然,沟通效率低下的问题。现有技术提出了两种方案,以对视频画面中用户的面部朝向和视线朝向进行校正。
方案1:通过给设备配置三维(three dimensions,3D)摄像头。在用户视频过程中,该设备利用3D摄像头采集用户的3D模型和二维(two dimension,2D)图像(可将3D摄像头采集到的2D图像称为原2D图像)。然后,对3D模型中的3D人脸进行面部朝向和视线朝向的校正,将校正后的3D模型进行投影得到校正后的2D图像。提取校正后的2D图像中的人脸边缘轮廓。最后,根据提取的人脸边缘轮廓,将校正后的2D图像与原2D图像通过能量迭代优化方式进行无缝融合,以得到面部和视线朝向正对显示屏的2D图像。
方案2:在用户视频过程中,基于设备的2D摄像头采集的2D图像(如称为原2D图像),对原2D图像中人体的头部和颈部进行3D重建,建立3D头部和颈部模型。对3D头部和颈部模型中的3D人脸进行面部朝向和视线朝向的校正,将校正后的3D头部和颈部模型进行投影得到校正后的2D图像,并提取该图像中人脸边缘轮廓。最后,也可以根据提取的人脸边缘轮廓,将校正后的2D图像与原2D图像通过能量迭代优化方式进行无缝融合,得到面部和视线朝向正对显示屏的2D图像。
通过上述方案1或方案2的处理,将最终处理得到的2D图像发送视频对端的设备,对方看到的视频画面中则不会出现视频画面中的人与自己没有进行眼神交流的现象。但是,上述方案1和方案2均是通过能量迭代优化的方式进行图像的无缝融合的,而这种方式的计算量较大,需要占用较多资源。
本申请实施例提供一种人脸校正方法,该方法可以应用于电子设备。在本实施例提供的方法中,电子设备可以获取原2D图像和3D人脸模型。该原2D图像中的人脸面部朝向不是正对电子设备的显示屏的。3D人脸模型中人脸面部朝向也不是正对显示屏的。电子设备可以对该3D人脸模型中的3D人脸进行面部朝向校正,使得校正后的3D人脸模型中人脸面部的朝向正对显示屏。然后对校正后的3D人脸模型进行投影,以获得2D人脸图像。由于校正后的3D人脸模型中人脸面部的朝向正对显示屏,因此投影得到的2D人脸图像中脸面部的朝向也是正对显示屏的。然后,电子设备可以以该2D人脸图像中的人脸面部图像为目标,对原2D图像中的人脸面部图像进行仿射变换,并生成2D人脸图像的人脸面部掩码(mask)。最后,根据该2D人脸图像的人脸面部的mask,将进行仿射变换后的原2D图像和2D人脸图像进行融合,以获得人脸面部的朝向正对显示屏的2D图像。
这样,在获取到原2D图像和3D人脸模型后,通过对得到的3D人脸模型中的3D人脸进行校正后重新投影得到2D人脸图像。另外,通过对原2D图像进行人脸仿射变换,并基于人脸掩码对进行仿射变换后的原2D图像和2D人脸图像进行无缝融合,实现了对人脸朝向的校正。使得对端用户观看到的视频画面中的人不会看向别处,觉得视频画面中的人与自己存在眼神交流,使得沟通更自然,提高沟通效率。且这种融合方法计算量小,无需占用很多资源。
下面将结合附图对本申请实施例的实施方式进行详细描述。
图4为本申请实施例提供的一种可以应用上述人脸校正方法的系统架构示意图。如图4所示,该系统架构可以包括至少两个电子设备:例如,第一电子设备401和第二电子设备402。
第一电子设备401可以作为通话的一端,与第二电子设备402进行通话。例如,一个或多个用户1可通过第一电子设备401与第二电子设备402的一个或多个用户2进行通话。
其中,本实施例中的通话可以是指视频通话,或视频会议。因此,第一电子设备401至少包括摄像头和显示屏,第二电子设备402也至少包括摄像头和显示屏。另外,第一电子设备401和第二电子设备402还可以包括听筒(或喇叭),话筒等。摄像头可用于采集通话过程中的图像序列。显示屏可用于显示通话过程中的图像,如通话对端设备发送的图像序列,自身采集到的图像序列。听筒(或喇叭)用于播放通话过程中的语音。话筒用于采集通话过程中的语音。当然,第一电子设备401或第二电子设备402也可以不包括摄像头,而是连接有摄像头。
需要说明的是,在本申请实施例中,第一电子设备401和第二电子设备402中至少存在一个电子设备的摄像头和显示屏之间存在以下至少一种关系:摄像头的朝向与显示屏的朝向不同,摄像头与显示屏之间存在距离。也就是说,至少存在一个电子设备采集到的图像序列中包括人脸面部朝向不是正对其显示屏的2D图像。该电子设备的摄像头可以是2D摄像头,也可以是3D摄像头。
例如,第一电子设备401的摄像头的朝向与其包括的显示屏的朝向不同,且其摄像头与其显示屏之间存在距离。那么,第一电子设备401采集到的图像序列中会包含人脸面部朝向不是正对显示屏的2D图像。在本实施例中,可以由第一电子设备401对这类2D图像进行人脸校正,并将校正后的2D图像发送给第二电子设备402,以便一个或多个用户2在第二电子设备402的显示屏上看到的视频画面中,不会存在一个或多个用户1看向别处的问题出现。在其他一些实施例中,第一电子设备401也可以将包含人脸面部朝向不是正对显示屏的2D图像的图像序列发送给第二电子设备402,由第二电子设备402对这类图像进行人脸校正,以便一个或多个用户2在第二电子设备402的显示屏上看到的视频画面中,不会存在一个或多个用户1看向别处的问题出现。
当然,第二电子设备402也可能存在其摄像头和显示屏之间存在以下至少一种关系:摄像头的朝向与其包括的显示屏的朝向不同,摄像头与其显示屏之间存在距离的情况。那么对其采集到的包含人脸面部朝向不是正对显示屏的2D图像,可以由第二电子设备402对这类图像进行人脸校正,也可以由第一电子设备401对这类图像进行人脸校正,本申请实施例在此并不做具体限制。
需要说明的是,为了便于描述,在本申请以下实施例中,以第一电子设备401的摄像头和显示屏之间存在以下至少一种关系:摄像头的朝向与其包括的显示屏的朝向不同,摄像头与其显示屏之间存在距离,第二电子设备402不存在该情况,且由第一电子设备401对包含人脸面部朝向不是正对显示屏的2D图像进行人脸校正为例,对本实施例提供的人脸校正方法进行详细介绍。
示例性的,本申请实施例中所述的电子设备(如上述第一电子设备401,第二电子设备402)可以是手机、平板电脑、桌面型、膝上型、手持计算机、笔记本电脑(如华为笔记本电脑)、台式电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本,以及蜂窝电话、个人数字助理(personal digital assistant,PDA)、增强现实(augmented reality,AR)\虚拟现实(virtual reality,VR)设备、电视机等包括或连接有显示屏和摄像头的设备,本申请实施例对该设备的具体形态不作特殊限制。
另外,在一些实施例中,上述第一电子设备401和第二电子设备402可以为相同类型的电子设备,如第一电子设备401和第二电子设备402均为笔记本电脑。在其他一些实施例中,上述第一电子设备401和第二电子设备402可以为不同类型的电子设备,如第一电子设备401为华为笔记本电脑,第二电子设备402为台式电脑(如图5中所示)。
请参考图5,为本申请实施例提供的一种电子设备的结构示意图。上述第一电子设备401,第二电子设备402的结构可以如图5所示。
如图5所示,电子设备可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中,传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本实施例示意的结构并不构成对电子设备的具体限定。在另一些实施例中,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,神经网络处理器(neural-network processing unit,NPU)等中的一个或多个。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
控制器可以是电子设备的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,SIM接口,USB接口等中的一个或多个。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过USB接口130接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块140可以通过电子设备的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为电子设备供电。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142,充电管理模块140的输入,为处理器110,内部存储器121,外部存储器,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
电子设备的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。电子设备中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块150可以提供应用在电子设备上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块150的至少部分功能模块可以被设置于处理器110中。在一些实施例中,移动通信模块150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170A,受话器170B等)输出声音信号,或通过显示屏194显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其他功能模块设置在同一个器件中。
无线通信模块160可以提供应用在电子设备上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块160经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。无线通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,电子设备的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得电子设备可以通过无线通信技术与网络以及其他设备通信。例如,电子设备可以通过天线1和移动通信模块150与其他电子设备进行视频通话或视频会议。所述无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(codedivision multiple access,CDMA),宽带码分多址(wideband code division multipleaccess,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,IR技术等中的一个或多个。所述GNSS可以包括全球卫星定位系统(global positioning system,GPS),全球导航卫星系统(global navigation satellite system,GLONASS),北斗卫星导航系统(beidou navigation satellite system,BDS),准天顶卫星系统(quasi-zenithsatellite system,QZSS),星基增强系统(satellite based augmentation systems,SBAS)等中的一个或多个。
电子设备通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,电子设备可以包括1个或N个显示屏194,N为大于1的正整数。例如,在本申请实施例中,在用户利用电子设备与其他电子设备的用户进行视频通话或视频会议的过程中,显示屏194可以显示视频接听界面,或视频提醒界面,或视频通话界面(如包括对端设备发送的图像序列,本设备采集到的图像序列)。
电子设备可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。例如,在本申请实施例中,摄像头193可用于采集视频通话或视频会议过程中的图像序列。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,电子设备可以包括1个或N个摄像头193,N为大于1的正整数。在本实施例中,该摄像头193可以是普通的2D摄像头,也可以是3D摄像头。该摄像头193可以采用隐藏式方式设置在电子设备中,也可以不采用隐藏式方式设置,本实施例在此不做具体限制。
需要说明的是,在本申请实施例中,该摄像头193和显示屏194之间存在以下至少一种关系:摄像头193的朝向与显示屏194的朝向不同,摄像头193与显示屏194之间存在距离。这样,摄像头193采集到的图像序列中可能存在用户的面部朝向并不是正对显示屏的2D图像。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。电子设备可以支持一种或多种视频编解码器。这样,电子设备可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现电子设备的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。处理器110通过运行存储在内部存储器121的指令,从而执行电子设备的各种功能应用以及数据处理。例如,在本申请实施例中,处理器110可以通过执行存储在内部存储器121中的指令,将采集到的图像序列中面部朝向并不是正对显示屏的2D图像进行人脸校正,以使得校正后的图像中面部朝向正对显示屏,以便通话对端用户观看到的视频画面中的用户不会看向别处。这样通话对端用户能够觉得视频画面中的人与自己存在眼神交流,使得沟通更自然,提高沟通效率。例如,处理器110可以通过执行存储在内部存储器121中的指令,进行人脸三维重建,人脸旋转校正,人脸无缝融合等处理。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储电子设备使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。在本实施例中,内部存储器121还可用于存储摄像头193采集到的图像序列,处理器110得到的2D人脸图像,3D人脸模型以及变形后的2D图像等。
电子设备可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如通话,音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息或需要通过语音助手触发电子设备执行某些功能时,用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。电子设备可以设置至少一个麦克风170C。在另一些实施例中,电子设备可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,电子设备还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器180A,电极之间的电容改变。电子设备根据电容的变化确定压力的强度。当有触摸操作作用于显示屏194,电子设备根据压力传感器180A检测所述触摸操作强度。电子设备也可以根据压力传感器180A的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
陀螺仪传感器180B可以用于确定电子设备的运动姿态。在一些实施例中,可以通过陀螺仪传感器180B确定电子设备围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器180B检测电子设备抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消电子设备的抖动,实现防抖。陀螺仪传感器180B还可以用于导航,体感游戏场景。
气压传感器180C用于测量气压。在一些实施例中,电子设备通过气压传感器180C测得的气压值计算海拔高度,辅助定位和导航。
磁传感器180D包括霍尔传感器。电子设备可以利用磁传感器180D检测翻盖皮套的开合。在一些实施例中,当电子设备是翻盖机时,电子设备可以根据磁传感器180D检测翻盖的开合。进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
加速度传感器180E可检测电子设备在各个方向上(一般为三轴)加速度的大小。当电子设备静止时可检测出重力的大小及方向。还可以用于识别电子设备姿态,应用于横竖屏切换,计步器等应用。
距离传感器180F,用于测量距离。电子设备可以通过红外或激光测量距离。在一些实施例中,拍摄场景,电子设备可以利用距离传感器180F测距以实现快速对焦。
接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。电子设备通过发光二极管向外发射红外光。电子设备使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定电子设备附近有物体。当检测到不充分的反射光时,电子设备可以确定电子设备附近没有物体。电子设备可以利用接近光传感器180G检测用户手持电子设备贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器180G也可用于皮套模式,口袋模式自动解锁与锁屏。
环境光传感器180L用于感知环境光亮度。电子设备可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。环境光传感器180L还可以与接近光传感器180G配合,检测电子设备是否在口袋里,以防误触。
指纹传感器180H用于采集指纹。电子设备可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器180J用于检测温度。在一些实施例中,电子设备利用温度传感器180J检测的温度,执行温度处理策略。例如,当温度传感器180J上报的温度超过阈值,电子设备执行降低位于温度传感器180J附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,电子设备对电池142加热,以避免低温导致电子设备异常关机。在其他一些实施例中,当温度低于又一阈值时,电子设备对电池142的输出电压执行升压,以避免低温导致的异常关机。
触摸传感器180K,也称“触控面板”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于电子设备的表面,与显示屏194所处的位置不同。
骨传导传感器180M可以获取振动信号。在一些实施例中,骨传导传感器180M可以获取人体声部振动骨块的振动信号。骨传导传感器180M也可以接触人体脉搏,接收血压跳动信号。在一些实施例中,骨传导传感器180M也可以设置于耳机中,结合成骨传导耳机。音频模块170可以基于所述骨传导传感器180M获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于所述骨传导传感器180M获取的血压跳动信号解析心率信息,实现心率检测功能。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。电子设备可以接收按键输入,产生与电子设备的用户设置以及功能控制有关的键信号输入。
马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏194不同区域的触摸操作,马达191也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
SIM卡接口195用于连接SIM卡。SIM卡可以通过插入SIM卡接口195,或从SIM卡接口195拔出,实现和电子设备的接触和分离。电子设备可以支持1个或N个SIM卡接口,N为大于1的正整数。SIM卡接口195可以支持Nano SIM卡,Micro SIM卡,SIM卡等。同一个SIM卡接口195可以同时插入多张卡。所述多张卡的类型可以相同,也可以不同。SIM卡接口195也可以兼容不同类型的SIM卡。SIM卡接口195也可以兼容外部存储卡。电子设备通过SIM卡和网络交互,实现通话以及数据通信等功能。在一些实施例中,电子设备采用eSIM,即:嵌入式SIM卡。eSIM卡可以嵌在电子设备中,不能和电子设备分离。
以下实施例中的方法均可以在具有上述硬件结构的电子设备中实现。
图6为本申请实施例提供的一种人脸校正方法的流程示意图。如图6所示,该方法可以包括:
S601、电子设备获取第一2D图像,该第一2D图像中的人脸面部的朝向与电子设备的显示屏的垂线不平行。
示例性的,电子设备可以通过自身的摄像头采集图像序列,或者接收来自其他电子设备的图像序列,该图像序列中包括上述第一2D图像。
其中,以电子设备是通过自身的摄像头采集到上述第一2D图像,该摄像头为2D摄像头为例。在该电子设备的摄像头和显示屏之间存在以下至少一种关系:摄像头与其包括的显示屏之间存在距离,摄像头的朝向与其包括的显示屏的朝向不同时,在用户使用该电子设备与其他用户进行视频聊天或视频会议的过程中,如果用户的面部并未朝向摄像头,而是朝向其他地方,如朝向显示屏时,该电子设备通过摄像头采集到的图像序列中,便会存在人脸面部的朝向与电子设备的显示屏的垂线不平行的2D图像。也就是说,采集到用户的面部朝向并未正对显示屏的2D图像,即上述第一2D图像。
S602、电子设备获取3D人脸模型,该3D人脸模型中人脸面部的朝向与摄像头捕获第一2D图像时用户人脸相对于该摄像头的朝向相同。
其中,3D人脸模型中人脸面部也并未正对显示屏。如果电子设备包括的摄像头是2D摄像头,则该3D人脸模型可由电子设备根据捕获的第一2D图像进行人脸3D重建获得。如果电子设备的摄像头是3D摄像头,则该3D人脸模型可直接由3D摄像头捕获得到。
S603、电子设备对3D人脸模型中的3D人脸进行面部朝向校正,校正后的3D人脸模型中人脸面部的朝向与显示屏的垂线平行。
电子设备可对获取的3D人脸模型中的3D人脸进行面部朝向校正,以使得校正后的3D人脸模型中人脸面部的朝向与显示屏的垂线平行,即,使得校正后的3D人脸模型中人脸面部正对显示屏。
S604、电子设备对校正后的3D人脸模型进行投影获得2D人脸图像,该2D人脸图像中人脸面部的朝向与显示屏的垂线平行。
电子设备将获得的校正后的3D人脸模型进行投影,便可获得校正后的3D人脸模型对应的2D人脸图像。由于校正后的3D人脸模型中人脸面部的朝向与显示屏的垂线平行,因此,获得的2D人脸图像中人脸面部的朝向与显示屏的垂线也是平行的,即,获得的2D人脸图像中人脸面部正对显示屏。
S605、电子设备以2D人脸图像中的人脸面部图像为目标,对第一2D图像中的人脸面部图像进行仿射变换。
其中,仿射变换(或者称为仿射映射)可以是指,在几何上将一个向量空间进行一次线性变换并接上一个平移变换,变换为另一个向量空间。在本实施例中,通过以2D人脸图像中的人脸面部图像为目标,对第一2D图像中的人脸面部图像进行仿射变换,可使得仿射变换后的人脸轮廓与校正后的图像(即2D人脸图像)中的人脸轮廓一致,其他五官图像接近校正后的图像。
S606、电子设备生成2D人脸图像的人脸面部的掩码(mask)。
其中,掩码也可以称为掩膜,或二值化掩膜。例如,电子设备可以根据2D人脸图像中人脸面部的轮廓,将该轮廓内的像素点的像素值置为255(呈现为白色),将该轮廓外的像素点的像素值置为0(呈现为黑色),以获得该2D人脸图像的人脸面部的掩码。
S607、电子设备根据2D人脸图像的人脸面部的掩码,将进行仿射变换后的第一2D图像和2D人脸图像进行融合,获得第二2D图像,该第二2D图像中人脸面部的朝向与显示屏的垂线平行。
电子设备在获得人脸面部朝向正对显示屏的2D人脸图像后,可以该2D人脸图像中的人脸面部图像为目标,对原2D图像(即第一2D图像)中的人脸面部图像进行仿射变换。并可生成2D人脸图像的人脸面部掩码。电子设备根据该2D人脸图像的人脸面部的掩码,将进行仿射变换后的原2D图像和2D人脸图像进行融合,以获得人脸面部的朝向正对显示屏的2D图像,即上述第二2D图像,该第二2D图像可仅包括人脸面部图像。另外,电子设备还可以将该第二2D图像覆盖到原2D图像的对应区域,以获得包括背景图像的2D图像。
本申请实施例提供的人脸校正方法,在获取到原2D图像和3D人脸模型后,通过对得到的3D人脸模型中的3D人脸进行校正后重新投影得到2D人脸图像。另外,通过对原2D图像进行人脸仿射变换,并基于人脸掩码对进行仿射变换后的原2D图像和2D人脸图像进行无缝融合,实现了对人脸朝向的校正。使得对端用户观看到的视频画面中的人不会看向别处,会觉得视频画面中的人与自己存在眼神交流,使得沟通更自然,提高沟通效率。且这种融合方法计算量小,无需占用很多资源。
图7为本申请实施例提供的一种人脸校正方法的流程示意图。在该实施例中,以电子设备为华为笔记本电脑为例。请参考图2,在华为笔记本电脑的设计中,摄像头采用隐藏式设置的方式,其位于键盘上,处于显示屏的下方。也就是说,摄像头的朝向与显示屏的朝向不同。且本实施例以该摄像头是普通的2D摄像头为例进行介绍。这样,在用户(如用户1)利用华为笔记本电脑与其他用户(如用户2)进行视频聊天后视频会议的过程中,如果用户1面部或视线朝向显示屏,而非摄像头,则会出现用户2看到的视频画面中用户1眼睛看向别处,如朝上看的情况,与自己没有眼神交流。为了避免这种情况出现,本申请实施例提供一种人脸校正方法,以对采集到的这种图像进行人脸校正。如图7所示,该方法可以包括:
S701、华为笔记本电脑通过摄像头采集图像序列。
S702、华为笔记本电脑从上述图像序列中获取第一2D图像。
其中,上述第一2D图像中的人脸面部的朝向与华为笔记本电脑的显示屏的垂线不平行,即人脸面部朝向不是正对显示屏。
例如,在用户1使用华为笔记本电脑与用户2进行视频聊天或视频会议的过程中,可以通过华为笔记本电脑的摄像头采集图像序列。如果在视频过程中,用户1的面部并未朝向该摄像头,而是朝向其他地方,如朝向电脑的显示屏,那么通过摄像头采集的图像序列中,便会存在人脸面部的朝向与显示屏的垂线不平行的2D图像,也就是说,存在用户的面部朝向并未正对显示屏的2D图像,即上述第一2D图像。华为笔记本电脑可从采集到的图像序列中捕获这些图像,即获取该第一2D图像。如,捕获到的第一2D图像如图8所示。由图8可以看到的是,该第一2D图像中用户1的面部朝向并未正对显示屏。需要说明的是,图8仅是为了体现捕获到的2D图像中用户1的面部朝向与显示屏的关系,在实际视频聊天或视频会议中,并不会在显示屏上显示该图像。
另外,由于采集图像序列的摄像头为普通2D摄像头,如果直接对采集到的2D图像进行人脸校正,则会由于缺乏三维深度信息,导致校正后的图像只能是进行轮廓形状近似改变,并不能改变用户的视线朝向。而往往在用户的面部朝向不是正对显示屏时,其视线朝向也并未正对摄像头,因此,也要对视线朝向进行校正。对视线朝向进行校正,则需要利用用户的3D人脸模型来实现。因此,本申请实施例可以通过执行如下S703-S704来实现3D人脸重建。
S703、华为笔记本电脑对第一2D图像进行检测,获取人脸面部的轮廓和特征点的位置。
其中,特征点可以包括人脸的眉毛,眼睛,鼻子及嘴巴对应位置处的特征点。
示例性的,在用户1进行视频聊天或视频会议的过程中,摄像头采集到的2D图像中通常除了包括人脸面部外,还会包括一些背景。在本实施例中,华为笔记本电脑在捕获到第一2D图像后,可以利用人脸检测算法将该图像中的背景区域去除,以获得包括人脸面部皮肤的图像。例如,第一2D图像如图8所示。华为笔记本电脑可以将该图像中的背景区域去除,以获得图9中的(a)所示的包括人脸面部的第一2D图像(该图像也可以称为人脸大头照)。通过基于对去除背景后的人脸大头照进行后续处理,可以节省后续处理的复杂度,提高人脸校正的效率。
之后,华为笔记本电脑可以利用图像处理技术和人脸检测算法,对图9中的(a)所示的第一2D图像进行人脸检测。例如,可以结合图9中的(b)所示的人脸68个特征点分布情况,获得该第一2D图像中人脸面部的轮廓,并定位出该人脸面部中眉毛、眼睛、鼻子及嘴巴对应位置处的特征点的位置。如,获取到的第一2D图像中人脸面部的轮廓和特征点的位置如图9中的(c)的黑色圆点所示。当然,也可以不去除背景区域,而是直接对摄像头采集到的包括背景区域的2D图像进行检测,以获得人脸面部的轮廓和特征点的位置,本实施例在此不做具体限制。
S704、华为笔记本电脑根据人脸面部的轮廓和特征点的位置进行人脸3D重建,获得3D人脸模型。
其中,3D人脸模型中人脸面部的朝向与华为笔记本的摄像头捕获第一2D图像时人脸相对于摄像头的朝向相同,即3D人脸模型中人脸面部的朝向并未正对显示屏。另外,3D人脸模型中的视线朝向也并未正对显示屏。
在获取到第一2D图像中人脸面部的轮廓,并定位出该人脸面部中眉毛、眼睛、鼻子及嘴巴对应位置处的特征点的位置之后,可以将检测出的人脸面部的轮廓和眉毛、眼睛、鼻子及嘴巴对应位置处的特征点,与已知的3D人脸模型(如图9中的(d)所示)中的特征点一一对应。然后,根据人脸识别后的第一2D图像和已知的3D人脸模型,采用3D重建技术,如三维可变形模型(3D Morphable Models,3DMM)技术,结合人脸特征识别出的人脸表情,拟合人脸形状轮廓,计算人脸姿态,以获得上述3D人脸模型,该3D人脸模型可如图9中的(e)所示,其与第一2D图像对应。如图9中的(e)所示,可以看到的是,该3D人脸模型中人脸面部的朝向并未正对显示屏,视线朝向也并未正对显示屏。
S705、华为笔记本电脑对3D人脸模型中的3D人脸进行面部朝向校正,校正后的3D人脸模型中人脸面部的朝向与显示屏的垂线平行。
示例性的,华为笔记本电脑可以获取摄像头的朝向与显示屏的朝向之间的夹角。根据获得的摄像头的朝向与显示屏的朝向之间的夹角,可以对3D人脸模型中的3D人脸进行面部朝向校正,以使得校正后的3D人脸模型中的人脸面部的朝向与显示屏的垂线平行,即人脸面部的朝向正对显示屏,也就是说,达到人脸校正的目的。例如,摄像头位于显示屏的下方,且摄像头的朝向与显示屏的朝向之间的夹角为15度。可以依据3D人脸模型中的3D人脸的当前姿态和摄像头的朝向与显示屏的朝向之间的夹角,将如图10中的(a)所示的3D人脸模型中的3D人脸向下旋转校正15度。如,校正后的3D人脸模型如图10中的(b)所示。可以看到的是,通过人脸面部朝向的校正,可使得校正后的3D人脸模型中的人脸面部正对显示屏。另外,通过对人脸面部朝向的校正,也可以对用户视线的朝向进行校正。
华为笔记本电脑在获得校正后的3D人脸模型后,可对校正后的3D人脸模型进行投影,以获得2D人脸图像,该2D人脸图像是进行人脸校正后的图像,即该2D人脸图像中人脸面部的朝向与显示屏的垂线平行。也就是说,该2D人脸图像中人脸面部的朝向正对显示屏。为了确保原图,即第一2D图像在进行人脸变形时人脸轮廓不会变化,在本实施例中,可以通过执行以下S706-S707获得上述2D人脸图像。
S706、华为笔记本电脑对校正后的3D人脸模型进行投影,获得人脸投影图像。
例如,结合图11,可以将图11中的(a)所示的校正后的3D人脸模型进行投影,获得图11中的(b)所示的人脸投影图像。
S707、华为笔记本电脑根据校正3D人脸模型中3D人脸的面部朝向时对3D人脸旋转的角度的方向,对上述人脸投影图像的中的人脸位置进行调整,获得2D人脸图像。
示例性的,华为笔记本电脑可以根据S705中对3D人脸模型中3D人脸的面部朝向校正时旋转的角度和方向,对图11中的(b)所示的人脸投影图像中的人脸位置进行调整。例如,结合图12,华为笔记本电脑在S705中对3D人脸模型中3D人脸向下旋转了15度,则华为笔记本电脑可以根据用户1头部的大小和3D人脸的旋转的角度和方向估算出需要移动的距离和方向。然后,根据估算出的距离和方向,将图12中的(a)所示人脸投影图像中的人脸位置进行调整。如可将图12中的(a)所示人脸投影图像中的人脸位置向下移动,移动距离等于估算出的距离,以得到的2D人脸图像,如图12中的(b)所示。这样,可以进一步的对用户1的视线朝向进行校正。
S708、华为笔记本电脑对2D人脸图像进行检测,获取2D人脸图像的控制点的位置,人脸面部的特征点的位置以及人脸面部的轮廓。
其中,该控制点可以包括以下至少一个位置处的特征点:人脸的额头对应位置处的特征点,人的颈部对应位置处的特征点。由于单检测人脸轮廓和眉毛、眼睛、鼻子及嘴巴对应位置处的特征点,获得的轮廓区域有限。因此,在本实施例中,在这些特征点的基础上,可以进一步的增加额头和颈部中至少一个位置处的特征点,用于识别人脸轮廓区域,以保护原图(即第一2D图像)在人脸变形时人脸轮廓不会变化。例如,以增加人脸的额头对应位置处的特征点为例。图12中的(b)所示的2D人脸图像中额头对应位置处的特征点可如图13中的(b)所示。
并且,为了保护人脸轮廓,对于获得的人脸面部的轮廓中,人脸下巴对应位置处的特征点是2D人脸图像对应位置处的特征点,人脸面部的轮廓中除人脸下巴对应位置处的特征点是第一2D图像对应位置处的特征点。也就是说,除下巴对应位置处的特征点外,将位于人脸轮廓边缘的其他特征点由第一2D图像对应位置处的特征点代替。
S709、华为笔记本电脑以2D人脸图像中的人脸面部图像为目标,对第一2D图像中的人脸面部图像进行仿射变换。
其中,华为笔记本电脑可以根据图13中的(b)所示的2D人脸图像的人脸面部的特征点的位置,控制点的位置,以及人脸面部的轮廓,对2D人脸图像中的人脸面部图像进行区域划分,得到多个第一区域块。根据图13中的(a)所示的第一2D图像的人脸面部的特征点的位置,控制点的位置,以及人脸面部的轮廓,对第一2D图像中的人脸面部图像进行区域划分,得到多个第二区域块。其中,多个第一区域块与多个第二区域块一一对应。其中,对图13中的(a)所示的第一2D图像和图13中的(b)所示的2D人脸图像的人脸面部图像进行区域划分采用的方式可以是三角网格化的划分方式。例如,如图13中的(d)所示,示出了部分第一区域块。也就是说,对图13中的(b)所示的2D人脸图像的人脸面部图像进行三角网格化划分后,至少可包括图13中的(d)所示的:第一区域块1'、第一区域块2'、第一区域块3'、第一区域块4'、第一区域块5'、第一区域块6'、第一区域块7'等第一区域块。如图13中的(c)所示,示出了部分第二区域块。也就是说,对图13中的(a)所示的第一2D图像人脸面部图像进行三角网格化划分后,至少可包括图13中的(c)所示的:第二区域块1、第二区域块2、第二区域块3、第二区域块4、第二区域块5、第二区域块6、第二区域块7等第二区域块。其中,如图13中的(c)和(d)所示,第一区域块1'与第二区域块1对应,第一区域块2'与第二区域块2对应,第一区域块3'与第二区域块3对应,第一区域块4'与第二区域块4对应,第一区域块5'与第二区域块5对应,第一区域块6'与第二区域块6对应,第一区域块7'与第二区域块7对应。
仿射变换(或者称为仿射映射)可以是指,在几何上将一个向量空间进行一次线性变换并接上一个平移变换,变换为另一个向量空间。华为笔记本电脑可以以2D人脸图像中每个第一区域块为目标,对第一2D图像中对应的每个第二区域块进行仿射变换,使得第一2D图像中的每个第二区域与2D人脸图像中的每个第一区域对齐。例如,结合图13中的(c)和(d)所示,可以以第一区域块1'为目标对第二区域块1进行仿射变换,以第一区域块2'为目标对第二区域块2进行仿射变换,依次类推,直到遍历完所有的区域块。这样,可使得仿射变换后的人脸轮廓与校正后的图像(即2D人脸图像)中的人脸轮廓一致,其他五官图像接近校正后的图像,且还可保护原图(即第一2D图像)中的人脸轮廓,使得原图中除人脸内部区域和下巴外其他区域图像无形变现象。例如,将图14中的(a)所示的第一2D图像,以2D人脸图像中的人脸面部图像为目标进行仿射变换后的第一2D图像如图14中的(b)所示。需要说明的是,在本实施例中,还可以2D人脸图像中的人脸面部图像为目标,对第一2D图像中的人脸面部图像进行透视变换等,本实施例在此不做限制。
S710、华为笔记本电脑生成2D人脸图像的人脸面部的掩码。
S711、华为笔记本电脑根据2D人脸图像的人脸面部的掩码,将进行仿射变换后的第一2D图像和2D人脸图像进行融合,获得第二2D图像,该第二2D图像中人脸面部的朝向与所述显示屏的垂线平行。
其中,华为笔记本电脑可以基于2D人脸图像的人脸面部的特征点的位置,控制点的位置,以及人脸面部的轮廓建立该2D人脸图像的人脸面部的掩码。然后根据该人脸面部的掩码,将进行仿射变换后的第一2D图像和2D人脸图像进行无缝拼接融合,以获得融合后的人脸图像,如称为第二2D图像。这样,可以降低人脸边缘纹理或光照变化明显导致的无缝拼接融合处理较困难的问题。另外,还可以先对生成的2D人脸图像的人脸面部的掩码进行腐蚀优化处理,以缩小人脸面部的掩码面积,然后,利用进行腐蚀优化后的人脸面部掩码进行图像的无缝拼接融合。
例如,结合图15,华为笔记本电脑可以基于2D人脸图像的人脸面部的轮廓,将2D人脸图像的人脸面部的轮廓内的像素点的像素值置为255,将2D人脸图像的该轮廓外的像素点的像素值置为0,以获得该2D人脸图像的人脸面部的掩码(或者称为二值化掩膜)。生成的2D人脸图像的人脸面部的掩码如图15中的(a)所示。可以对该掩码进行腐蚀处理。腐蚀处理是一种消除边界点,使边界向内部收缩的过程。这样经腐蚀处理后可得到缩小的人脸面部的掩码,如图15中的(b)所示。然后,结合图16,华为笔记本电脑可以根据图15中的(b)所示的人脸面部的掩码,将图16中的(a)所示的进行仿射变换后的第一2D图像和图16中的(b)所示的2D人脸图像进行无缝拼接融合,以获得图16中的(c)所示的融合后的人脸图像,如称为第二2D图像。
需要说明的是,在本实施例中,在3D人脸的旋转角度较小、无光照变化时,可使用拉普拉斯金字塔融合算法对进行仿射变换后的第一2D图像和2D人脸图像进行无缝拼接融合。在3D人脸的旋转角度较大或光照变化明显时,可使用泊松融合算法对进行仿射变换后的第一2D图像和2D人脸图像进行无缝拼接融合。当然,也可以采用其他的融合算法进行图像的融合,本申请实施例在此并不做具体限制。
S712、华为笔记本电脑用第二2D图像覆盖第一2D图像对应区域中的图像,生成校正后的图像。
华为笔记本电脑可以将该第二2D图像复制到原2D图像,即第一2D图像的对应区域,以获得校正后的图像,该图像包括背景图像和人脸图像。例如,结合图17,用图17中的(a)所示的融合后的人脸图像,即第二2D图像,覆盖图17中的(b)所示的第一2D图像对应区域中的图像,便可获得图17中的(c)所示的校正后的图像。这样,可以较真实的保护背景信息。可以看到的是,在该图像中,用户1的人脸朝向和视线朝向均正对显示屏。华为笔记本电脑可以将该图像发送给用户2的电子设备。如用户2使用台式电脑与用户1进行视频,那么用户2观看到的视频画面可如图18所示。可以看到的是,用户2此时看到的视频画面中用户1眼睛看向自己,与自己有眼神交流。
当然,如果用户2使用的台式电脑也存在摄像头和显示屏之间存在以下至少一种关系:摄像头和显示屏之间存在距离,摄像头的朝向与显示屏的朝向不同的情况,该台式电脑也可以将采集到的包括用户2的图像序列中人脸朝向和显示屏不是正对的图像进行校正,然后将校正后的图像序列发送给用户1的华为笔记本电脑,以便用户1看到的视频画面中用户2眼睛看向自己,与自己有眼神交流,使得沟通更加自然,更加高效。
本申请实施例提供的人脸校正方法,通过对原2D图像进行人脸3D重建,并对得到的3D人脸模型中的3D人脸进行校正后重新投影得到2D人脸图像。另外,通过对原2D图像进行人脸仿射变换,并基于人脸掩码对进行仿射变换后的原2D图像和2D人脸图像进行无缝融合,实现了对人脸朝向的校正。使得对端用户观看到的视频画面中的人不会看向别处,会觉得视频画面中的人与自己存在眼神交流,使得沟通更自然,提高沟通效率。且这种融合方法计算量小,无需占用很多资源。另外,采用本实施例的方法,可以有效的对人脸轮廓进行保护,还可以对背景信息进行有效保护。
上述主要从电子设备的角度对本申请实施例提供的方案进行了介绍。可以理解的是,电子设备为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法示例对电子设备进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本申请实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
图19为本申请实施例提供的一种电子设备的组成示意图。如图19所示,该电子设备可以包括:获取单元1901,校正单元1902,投影单元1903,变换单元1904,生成单元1905和融合单元1906。
获取单元1901,用于获取第一2D图像,该第一2D图像中的人脸面部的朝向与电子设备的显示屏的垂线不平行。
获取单元1901,还用于获取3D人脸模型,该3D人脸模型中人脸面部的朝向与摄像头捕获第一2D图像时用户人脸相对于摄像头的朝向相同。
校正单元1902,用于对获取单元1901获得的3D人脸模型中的3D人脸进行面部朝向校正,校正后的3D人脸模型中人脸面部的朝向与显示屏的垂线平行。
投影单元1903,用于对校正单元1902校正后的3D人脸模型进行投影,获得2D人脸图像,该2D人脸图像中人脸面部的朝向与显示屏的垂线平行。
变换单元1904,用于以投影单元1903获得的2D人脸图像中的人脸面部图像为目标,对获取单元1901获取到的第一2D图像中的人脸面部图像进行仿射变换。
生成单元1905,用于生成投影单元1903获得的2D人脸图像的人脸面部的掩码(mask)。
融合单元1906,用于根据生成单元1905生成的2D人脸图像的人脸面部的mask,将变换单元1904进行仿射变换后的第一2D图像和投影单元1903获得的2D人脸图像进行融合,获得第二2D图像,该第二2D图像中人脸面部的朝向与显示屏的垂线平行。
进一步的,电子设备可以包括上述摄像头,该摄像头和显示屏之间存在以下至少一种关系:摄像头的朝向与电子设备的显示屏的朝向不同,摄像头与显示屏之间存在距离。获取单元1901,具体用于通过摄像头采集图像序列,该图像序列中包括第一2D图像。
进一步的,上述摄像头可以为2D摄像头;获取单元1901获取3D人脸模型,具体用于:根据第一2D图像进行人脸3D重建,获得3D人脸模型。此时,该单元可以称为重建单元。
进一步的,获取单元1901根据第一2D图像进行人脸3D重建,获得3D人脸模型具体用于:对第一2D图像进行检测,获取人脸面部的轮廓和特征点的位置,该特征点包括人脸的眉毛,眼睛,鼻子及嘴巴对应位置处的特征点;根据人脸面部的轮廓和特征点的位置进行人脸3D重建,获得3D人脸模型。
进一步的,校正单元1902具体用于:获取摄像头的朝向与显示屏的朝向的夹角;根据摄像头的朝向与显示屏的朝向的夹角,对3D人脸模型中的3D人脸进行面部朝向校正。
进一步的,投影单元1903具体用于:对校正后的3D人脸模型进行投影,获得人脸投影图像;根据校正3D人脸模型中3D人脸的面部朝向时对3D人脸旋转的角度和方向,对人脸投影图像的中的人脸位置进行调整,获得2D人脸图像。
进一步的,该电子设备还可以包括:检测单元,用于对2D人脸图像进行检测,获取2D人脸图像的控制点的位置,人脸面部的特征点的位置以及人脸面部的轮廓。其中,控制点包括以下至少一个位置处的特征点:人脸的额头对应位置处的特征点,人的颈部对应位置处的控制点;在人脸面部的轮廓中,人脸下巴对应位置处的特征点是2D人脸图像对应位置处的特征点,人脸面部的轮廓中除人脸下巴对应位置处的特征点是第一2D图像对应位置处的特征点。
变换单元1904,具体用于:根据2D人脸图像的人脸面部的特征点的位置,控制点的位置,以及人脸面部的轮廓,对2D人脸图像中的人脸面部图像进行区域划分,得到多个第一区域块;根据第一2D图像的人脸面部的特征点的位置,控制点的位置,以及人脸面部的轮廓,对第一2D图像中的人脸面部图像进行区域划分,得到多个第二区域块,多个第一区域块与多个第二区域块一一对应,第一2D图像的控制点的位置是对第一2D图像进行检测得到的;以2D人脸图像中每个第一区域块为目标,对第一2D图像中对应的每个第二区域块进行仿射变换。
进一步的,上述生成单元1905,还用于对2D人脸图像的人脸面部的mask进行腐蚀处理。
融合单元1906,具体用于根据腐蚀处理后的2D人脸图像的人脸面部的mask,将进行仿射变换后的第一2D图像和2D人脸图像进行融合,获得第二2D图像。
进一步的,生成单元1905,还用于用第二2D图像覆盖第一2D图像对应区域中的图像,生成校正后的图像。
本申请另一些实施例还提供了一种电子设备,用于执行以上实施例中的方法,以实现上述实施例中电子设备的功能。该电子设备可以包括:显示屏;一个或多个处理器;存储器;摄像头(如2D摄像头)。显示屏的朝向和摄像头的朝向不同,和/或,显示屏和摄像头之间存在距离。上述各器件可以通过一个或多个通信总线连接。其中上述存储器中存储一个或多个计算机程序代码,该一个或多个计算机程序代码包括计算机指令,一个或多个处理器用于执行计算机指令,可以用于实现上述图6或图7所示实施例中电子设备的行为功能。显示屏可用于根据一个或多个处理器的指示进行内容的显示,如显示视频会议或视频聊天过程中的画面。
本申请另一些实施例还提供一种计算机可读存储介质,该计算机可读存储介质可包括计算机软件指令,当该计算机软件指令在电子设备上运行时,使得该电子设备执行上述图6或图7所示实施例中电子设备执行的各个步骤。
本申请另一些实施例还提供一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得该计算机执行上述图6或图7所示实施例中电子设备执行的各个步骤。
本申请另一些实施例还提供一种芯片系统,该芯片系统可以应用于电子设备。该电子设备包括显示屏和摄像头(如2D摄像头)。且,显示屏的朝向和摄像头的朝向不同,和/或,显示屏和摄像头之间存在距离。芯片系统包括接口电路和处理器;接口电路和处理器通过线路互联;接口电路用于从电子设备的存储器接收信号,并向处理器发送信号,信号包括存储器中存储的计算机指令;当处理器执行该计算机指令时,芯片系统执行如上述图6或图7所示实施例中电子设备执行的各个步骤。
本申请实施例提供的电子设备,计算机可读存储介质,计算机程序产品及芯片系统,可以执行上述图6或图7对应的方法实施例电子设备的动作,其实现原理和技术效果类似,在此不再赘述。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个装置,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是一个物理单元或多个物理单元,即可以位于一个地方,或者也可以分布到多个不同地方。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何在本申请揭露的技术范围内的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (19)
1.一种人脸校正方法,其特征在于,所述方法包括:
电子设备获取第一二维2D图像,所述第一2D图像中的人脸面部的朝向与所述电子设备的显示屏的垂线不平行;
所述电子设备获取三维3D人脸模型,所述3D人脸模型中人脸面部的朝向与摄像头捕获所述第一2D图像时用户人脸相对于所述摄像头的朝向相同;
所述电子设备对所述3D人脸模型中的3D人脸进行面部朝向校正,校正后的所述3D人脸模型中人脸面部的朝向与所述显示屏的垂线平行;
所述电子设备对校正后的所述3D人脸模型进行投影,获得2D人脸图像,所述2D人脸图像中人脸面部的朝向与所述显示屏的垂线平行;
所述电子设备以所述2D人脸图像中的人脸面部图像为目标,对所述第一2D图像中的人脸面部图像进行仿射变换;
所述电子设备生成所述2D人脸图像的人脸面部的掩码mask;
所述电子设备根据所述2D人脸图像的人脸面部的mask,将进行仿射变换后的第一2D图像和所述2D人脸图像进行融合,获得第二2D图像,所述第二2D图像中人脸面部的朝向与所述显示屏的垂线平行。
2.根据权利要求1所述的方法,其特征在于,所述电子设备还包括所述摄像头,所述摄像头和所述显示屏之间存在以下至少一种关系:所述摄像头的朝向与所述显示屏的朝向不同,所述摄像头与所述显示屏之间存在距离;
所述电子设备获取第一二维2D图像,包括:
所述电子设备通过所述摄像头采集图像序列,所述图像序列中包括所述第一2D图像。
3.根据权利要求1或2所述的方法,其特征在于,所述摄像头为2D摄像头,所述电子设备获取三维3D人脸模型,包括:
所述电子设备根据所述第一2D图像进行人脸3D重建,获得所述3D人脸模型。
4.根据权利要求3所述的方法,其特征在于,所述电子设备根据所述第一2D图像进行人脸3D重建,获得所述3D人脸模型,包括:
所述电子设备对所述第一2D图像进行检测,获取人脸面部的轮廓和特征点的位置,所述特征点包括人脸的眉毛,眼睛,鼻子及嘴巴对应位置处的特征点;
所述电子设备根据所述人脸面部的轮廓和特征点的位置进行人脸3D重建,获得所述3D人脸模型。
5.根据权利要求1所述的方法,其特征在于,所述电子设备对所述3D人脸模型中的3D人脸进行面部朝向校正,包括:
所述电子设备获取所述摄像头的朝向与所述显示屏的朝向的夹角;
所述电子设备根据所述摄像头的朝向与所述显示屏的朝向的夹角,对所述3D人脸模型中的3D人脸进行面部朝向校正。
6.根据权利要求1所述的方法,其特征在于,所述电子设备对校正后的所述3D人脸模型进行投影,获得2D人脸图像,包括:
所述电子设备对校正后的所述3D人脸模型进行投影,获得人脸投影图像;
所述电子设备根据校正所述3D人脸模型中3D人脸的面部朝向时对3D人脸旋转的角度和方向,对所述人脸投影图像的中的人脸位置进行调整,获得所述2D人脸图像。
7.根据权利要求1所述的方法,其特征在于,在获得所述2D人脸图像之后,所述方法还包括:
所述电子设备对所述2D人脸图像进行检测,获取所述2D人脸图像的控制点的位置,人脸面部的特征点的位置以及人脸面部的轮廓;其中,所述控制点包括以下至少一个位置处的特征点:人脸的额头对应位置处的特征点,人的颈部对应位置处的特征点;在所述人脸面部的轮廓中,人脸下巴对应位置处的特征点是所述2D人脸图像对应位置处的特征点,所述人脸面部的轮廓中除人脸下巴对应位置处的特征点是所述第一2D图像对应位置处的特征点;
所述电子设备以所述2D人脸图像中的人脸面部图像为目标,对所述第一2D图像中的人脸面部图像进行仿射变换,包括:
所述电子设备根据所述2D人脸图像的人脸面部的特征点的位置,控制点的位置,以及人脸面部的轮廓,对所述2D人脸图像中的人脸面部图像进行区域划分,得到多个第一区域块;
所述电子设备根据所述第一2D图像的人脸面部的特征点的位置,控制点的位置,以及人脸面部的轮廓,对所述第一2D图像中的人脸面部图像进行区域划分,得到多个第二区域块,所述多个第一区域块与所述多个第二区域块一一对应,所述第一2D图像的控制点的位置是对所述第一2D图像进行检测得到的;
所述电子设备以所述2D人脸图像中每个第一区域块为目标,对所述第一2D图像中对应的每个第二区域块进行仿射变换。
8.根据权利要求1所述的方法,其特征在于,在所述生成所述2D人脸图像的人脸面部的掩码mask之后,所述方法还包括:
所述电子设备对所述2D人脸图像的人脸面部的mask进行腐蚀处理;
所述电子设备根据所述2D人脸图像的人脸面部的mask,将进行仿射变换后的第一2D图像和所述2D人脸图像进行融合,获得第二2D图像,包括:
所述电子设备根据腐蚀处理后的所述2D人脸图像的人脸面部的mask,将进行仿射变换后的第一2D图像和所述2D人脸图像进行融合,获得所述第二2D图像。
9.根据权利要求1所述的方法,其特征在于,在获得所述第二2D图像后,所述方法还包括:
所述电子设备用所述第二2D图像覆盖所述第一2D图像对应区域中的图像,生成校正后的图像。
10.一种电子设备,其特征在于,所述电子设备包括:处理器,存储器和显示屏;所述处理器,所述存储器以及所述显示屏耦合,所述存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,当所述计算机指令被所述电子设备执行时,使得所述电子设备执行如下操作:
获取第一二维2D图像,所述第一2D图像中的人脸面部的朝向与所述显示屏的垂线不平行;
获取三维3D人脸模型,所述3D人脸模型中人脸面部的朝向与摄像头捕获所述第一2D图像时用户人脸相对于所述摄像头的朝向相同;
对所述3D人脸模型中的3D人脸进行面部朝向校正,校正后的所述3D人脸模型中人脸面部的朝向与所述显示屏的垂线平行;
对校正后的所述3D人脸模型进行投影,获得2D人脸图像,所述2D人脸图像中人脸面部的朝向与所述显示屏的垂线平行;
以所述2D人脸图像中的人脸面部图像为目标,对所述第一2D图像中的人脸面部图像进行仿射变换;
生成所述2D人脸图像的人脸面部的掩码mask;
根据所述2D人脸图像的人脸面部的mask,将进行仿射变换后的第一2D图像和所述2D人脸图像进行融合,获得第二2D图像,所述第二2D图像中人脸面部的朝向与所述显示屏的垂线平行。
11.根据权利要求10所述的电子设备,其特征在于,所述电子设备还包括所述摄像头,所述摄像头和所述显示屏之间存在以下至少一种关系:所述摄像头的朝向与所述显示屏的朝向不同,所述摄像头与所述显示屏之间存在距离;
所述获取第一二维2D图像,具体为:通过所述摄像头采集图像序列,所述图像序列中包括所述第一2D图像。
12.根据权利要求10或11所述的电子设备,其特征在于,所述摄像头为2D摄像头,所述获取三维3D人脸模型,具体为:根据所述第一2D图像进行人脸3D重建,获得所述3D人脸模型。
13.根据权利要求12所述的电子设备,其特征在于,所述根据所述第一2D图像进行人脸3D重建,获得所述3D人脸模型,具体为:
对所述第一2D图像进行检测,获取人脸面部的轮廓和特征点的位置,所述特征点包括人脸的眉毛,眼睛,鼻子及嘴巴对应位置处的特征点;
根据所述人脸面部的轮廓和特征点的位置进行人脸3D重建,获得所述3D人脸模型。
14.根据权利要求10所述的电子设备,其特征在于,所述对所述3D人脸模型中的3D人脸进行面部朝向校正,具体为:
获取所述摄像头的朝向与所述显示屏的朝向的夹角;
根据所述摄像头的朝向与所述显示屏的朝向的夹角,对所述3D人脸模型中的3D人脸进行面部朝向校正。
15.根据权利要求10所述的电子设备,其特征在于,所述对校正后的所述3D人脸模型进行投影,获得2D人脸图像,具体为:
对校正后的所述3D人脸模型进行投影,获得人脸投影图像;
根据校正所述3D人脸模型中3D人脸的面部朝向时对3D人脸旋转的角度和方向,对所述人脸投影图像的中的人脸位置进行调整,获得所述2D人脸图像。
16.根据权利要求10所述的电子设备,其特征在于,当所述计算机指令被所述电子设备执行时,还使得所述电子设备执行如下操作:
对所述2D人脸图像进行检测,获取所述2D人脸图像的控制点的位置,人脸面部的特征点的位置以及人脸面部的轮廓;其中,所述控制点包括以下至少一个位置处的特征点:人脸的额头对应位置处的特征点,人的颈部对应位置处的特征点;在所述人脸面部的轮廓中,人脸下巴对应位置处的特征点是所述2D人脸图像对应位置处的特征点,所述人脸面部的轮廓中除人脸下巴对应位置处的特征点是所述第一2D图像对应位置处的特征点;
所述以所述2D人脸图像中的人脸面部图像为目标,对所述第一2D图像中的人脸面部图像进行仿射变换,具体为:
根据所述2D人脸图像的人脸面部的特征点的位置,控制点的位置,以及人脸面部的轮廓,对所述2D人脸图像中的人脸面部图像进行区域划分,得到多个第一区域块;
根据所述第一2D图像的人脸面部的特征点的位置,控制点的位置,以及人脸面部的轮廓,对所述第一2D图像中的人脸面部图像进行区域划分,得到多个第二区域块,所述多个第一区域块与所述多个第二区域块一一对应,所述第一2D图像的控制点的位置是对所述第一2D图像进行检测得到的;
以所述2D人脸图像中每个第一区域块为目标,对所述第一2D图像中对应的每个第二区域块进行仿射变换。
17.根据权利要求10所述的电子设备,其特征在于,当所述计算机指令被所述电子设备执行时,还使得所述电子设备执行如下操作:
对所述2D人脸图像的人脸面部的mask进行腐蚀处理;
所述根据所述2D人脸图像的人脸面部的mask,将进行仿射变换后的第一2D图像和所述2D人脸图像进行融合,获得第二2D图像,具体为:根据腐蚀处理后的所述2D人脸图像的人脸面部的mask,将进行仿射变换后的第一2D图像和所述2D人脸图像进行融合,获得所述第二2D图像。
18.根据权利要求10所述的电子设备,其特征在于,当所述计算机指令被所述电子设备执行时,还使得所述电子设备执行如下操作:
用所述第二2D图像覆盖所述第一2D图像对应区域中的图像,生成校正后的图像。
19.一种计算机可读存储介质,其特征在于,包括:计算机软件指令;
当所述计算机软件指令在电子设备中运行时,使得所述电子设备执行如权利要求1至9中任一项所述的人脸校正方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910514753.7A CN112085647B (zh) | 2019-06-14 | 2019-06-14 | 一种人脸校正方法及电子设备 |
PCT/CN2020/095787 WO2020249076A1 (zh) | 2019-06-14 | 2020-06-12 | 一种人脸校正方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910514753.7A CN112085647B (zh) | 2019-06-14 | 2019-06-14 | 一种人脸校正方法及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112085647A CN112085647A (zh) | 2020-12-15 |
CN112085647B true CN112085647B (zh) | 2024-01-19 |
Family
ID=73733861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910514753.7A Active CN112085647B (zh) | 2019-06-14 | 2019-06-14 | 一种人脸校正方法及电子设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112085647B (zh) |
WO (1) | WO2020249076A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112927354B (zh) * | 2021-02-25 | 2022-09-09 | 电子科技大学 | 基于实例分割的三维重建方法、系统、存储介质及终端 |
US11792505B2 (en) * | 2021-07-06 | 2023-10-17 | Qualcomm Incorporated | Enhanced object detection |
US12132768B2 (en) * | 2021-08-03 | 2024-10-29 | Dell Products, L.P. | Eye contact correction in a communication or collaboration session using a platform framework |
CN113689361B (zh) * | 2021-10-27 | 2022-02-22 | 深圳市慧鲤科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN116824026B (zh) * | 2023-08-28 | 2024-01-09 | 华东交通大学 | 一种三维重建方法、装置、系统以及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310186A (zh) * | 2012-02-29 | 2013-09-18 | 三星电子株式会社 | 校正图像中用户的注视方向的方法和便携式终端 |
CN104992417A (zh) * | 2015-06-30 | 2015-10-21 | 上海交通大学 | 基于Kinect的人脸视频目光修正方法及系统 |
CN105763829A (zh) * | 2014-12-18 | 2016-07-13 | 联想(北京)有限公司 | 一种图像处理方法及电子设备 |
CN105989577A (zh) * | 2015-02-17 | 2016-10-05 | 中兴通讯股份有限公司 | 一种图像校正的方法和装置 |
CN106981078A (zh) * | 2017-04-14 | 2017-07-25 | 广州视源电子科技股份有限公司 | 视线校正方法、装置、智能会议终端及存储介质 |
CN107392844A (zh) * | 2017-07-27 | 2017-11-24 | 三星电子(中国)研发中心 | 一种修正人像视线的方法和设备 |
CN108491775A (zh) * | 2018-03-12 | 2018-09-04 | 维沃移动通信有限公司 | 一种图像修正方法及移动终端 |
CN109685740A (zh) * | 2018-12-25 | 2019-04-26 | 努比亚技术有限公司 | 人脸校正的方法及装置、移动终端及计算机可读存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10152778B2 (en) * | 2015-09-11 | 2018-12-11 | Intel Corporation | Real-time face beautification features for video images |
-
2019
- 2019-06-14 CN CN201910514753.7A patent/CN112085647B/zh active Active
-
2020
- 2020-06-12 WO PCT/CN2020/095787 patent/WO2020249076A1/zh active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310186A (zh) * | 2012-02-29 | 2013-09-18 | 三星电子株式会社 | 校正图像中用户的注视方向的方法和便携式终端 |
CN105763829A (zh) * | 2014-12-18 | 2016-07-13 | 联想(北京)有限公司 | 一种图像处理方法及电子设备 |
CN105989577A (zh) * | 2015-02-17 | 2016-10-05 | 中兴通讯股份有限公司 | 一种图像校正的方法和装置 |
CN104992417A (zh) * | 2015-06-30 | 2015-10-21 | 上海交通大学 | 基于Kinect的人脸视频目光修正方法及系统 |
CN106981078A (zh) * | 2017-04-14 | 2017-07-25 | 广州视源电子科技股份有限公司 | 视线校正方法、装置、智能会议终端及存储介质 |
CN107392844A (zh) * | 2017-07-27 | 2017-11-24 | 三星电子(中国)研发中心 | 一种修正人像视线的方法和设备 |
CN108491775A (zh) * | 2018-03-12 | 2018-09-04 | 维沃移动通信有限公司 | 一种图像修正方法及移动终端 |
CN109685740A (zh) * | 2018-12-25 | 2019-04-26 | 努比亚技术有限公司 | 人脸校正的方法及装置、移动终端及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112085647A (zh) | 2020-12-15 |
WO2020249076A1 (zh) | 2020-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110445978B (zh) | 一种拍摄方法及设备 | |
CN112085647B (zh) | 一种人脸校正方法及电子设备 | |
CN110321790B (zh) | 一种对抗样本的检测方法及电子设备 | |
CN110035141B (zh) | 一种拍摄方法及设备 | |
US11782554B2 (en) | Anti-mistouch method of curved screen and electronic device | |
EP3813352B1 (en) | Photographing method and electronic device | |
CN113810601B (zh) | 终端的图像处理方法、装置和终端设备 | |
CN112860428A (zh) | 一种高能效的显示处理方法及设备 | |
CN113741681B (zh) | 一种图像校正方法与电子设备 | |
CN112614057A (zh) | 一种图像虚化处理方法及电子设备 | |
CN113496477B (zh) | 屏幕检测方法及电子设备 | |
CN113572957A (zh) | 一种拍摄对焦方法及相关设备 | |
CN114257737B (zh) | 一种摄像模式切换方法以及相关设备 | |
CN113518189B (zh) | 拍摄方法、系统、电子设备及存储介质 | |
CN115150542B (zh) | 一种视频防抖方法及相关设备 | |
CN114500901A (zh) | 双景录像方法、装置和电子设备 | |
CN114302063B (zh) | 一种拍摄方法及设备 | |
CN113781548B (zh) | 多设备的位姿测量方法、电子设备及系统 | |
WO2022033344A1 (zh) | 视频防抖方法、终端设备和计算机可读存储介质 | |
CN117593236A (zh) | 图像的显示方法、装置和终端设备 | |
CN117093068A (zh) | 基于穿戴设备的振动反馈方法、系统、穿戴设备和电子设备 | |
CN115706869A (zh) | 终端的图像处理方法、装置和终端设备 | |
CN113923351A (zh) | 多路视频拍摄的退出方法、设备、存储介质和程序产品 | |
CN116782024A (zh) | 一种拍摄方法和电子设备 | |
CN115209027B (zh) | 相机对焦的方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |