[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN107423716A - 人脸状态监控方法及装置 - Google Patents

人脸状态监控方法及装置 Download PDF

Info

Publication number
CN107423716A
CN107423716A CN201710643846.0A CN201710643846A CN107423716A CN 107423716 A CN107423716 A CN 107423716A CN 201710643846 A CN201710643846 A CN 201710643846A CN 107423716 A CN107423716 A CN 107423716A
Authority
CN
China
Prior art keywords
face
models
user
state
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710643846.0A
Other languages
English (en)
Inventor
唐城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201710643846.0A priority Critical patent/CN107423716A/zh
Publication of CN107423716A publication Critical patent/CN107423716A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明提出一种人脸状态监控方法及装置,其中,方法包括:基于结构光获取用户的人脸3D模型;将人脸3D模型与预存的参考人脸3D模型进行对比,以识别用户的人脸状态;在终端设备上显示识别出的人脸状态。该方法基于结构光构建人脸3D模型,通过将构建的用户的人脸3D模型与预存的参考人脸3D模型进行对比,识别用户的人脸状态,并在终端设备上显示识别结果,实现了用户通过终端设备即可实时了解人脸状态,方便、快捷。

Description

人脸状态监控方法及装置
技术领域
本发明涉及终端设备领域,尤其涉及一种人脸状态监控方法及装置。
背景技术
随着生活节奏的加快,人们对于健康的重视程度也逐渐提高。人们通常通过定时的健康体检,来了解身体的健康状况。但是,这种方式不能使用户实时、快速的了解身体状况。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明提出一种人脸状态监控方法,以实现用户通过终端设备即可实时了解人脸状态,以及人脸状态体现出的人体健康状态。
本发明提出一种人脸状态监控装置。
本发明提出一种终端设备。
本发明提出一种计算机可读存储介质。
本发明第一方面实施例提出了一种人脸状态监控方法,包括:
基于结构光获取用户的人脸3D模型;
将所述人脸3D模型与预存的参考人脸3D模型进行对比,以识别所述用户的人脸状态;
在终端设备上显示识别出的所述人脸状态。
作为第一方面实施例一种可能的实现方式,将所述人脸3D模型与预存的参考人脸3D模型进行对比,以识别所述用户的人脸状态,包括:
从所述人脸3D模型中提取所述用户的第一脸部特征;
将所述第一脸部特征与所述参考人脸3D模型的第二脸部特征进行比较;
如果所述第一脸部特征所表征出的人脸尺寸大于所述第二脸部特征所表征出的人脸尺寸且两者之间的差异大于预设的第一阈值,则识别所述人脸状态为肥胖状态;
如果所述第一脸部特征所表征出的人脸尺寸小于所述第二脸部特征所表征出的人脸尺寸且两者之间的差异大于预设的第二阈值,则识别所述人脸状态为消瘦状态。
作为第一方面实施例一种可能的实现方式,所述将所述第一脸部特征与所述参考人脸3D模型的第二脸部特征进行比较,包括:
根据所述第一脸部特征确定所述用户的脸型;
从所有的参考人脸3D模型中,获取与所述脸型匹配的参考人脸3D模型。
作为第一方面实施例一种可能的实现方式,所述人脸状态监控方法还包括:
预先为不同的脸型设置不同的参考人脸3D模型;其中,不同的参考人脸3D模型对应人脸不同的胖瘦等级;
所述根据所述第一脸部特征确定所述用户的脸型之后,包括:
根据所述用户的脸型获取至少一个第一参考人脸3D模型;
将所述第一脸部特征与每个所述第一参考人脸3D模型的第二脸部特征进行比较;
确定所述第一脸部特征与每个所述第二脸部特征之间的差异;
将差异最小的所述第二脸部特征对应的第一参考人脸3D模型作为目标参考人脸3D模型;
将所述目标参考人脸3D模型对应的胖瘦等级作为所述用户的人脸状态。
作为第一方面实施例一种可能的实现方式,所述人脸状态监控方法还包括:获取标准胖瘦的所述第一参考人脸3D模型;
将所述第一脸部特征与所述标准胖瘦的所述第一人脸参考3D模型的第三脸部特征进行比较;
将比较结果在所述终端设备上进行显示。
作为第一方面实施例一种可能的实现方式,所述基于结构光获取所述户的人脸3D模型,包括:
向所述用户的人脸发射结构光;
采集所述结构光在所述人脸上的反射光并形成人脸的深度图像;
基于所述深度图像重构所述人脸3D模型。
作为第一方面实施例一种可能的实现方式,所述结构光为非均匀的结构光,所述非均匀的结构光为多个光斑的集合构成的散斑图案或乱点图案,是由设置在终端上的投射装置中的衍射光学元件形成的,其中,所述衍射光学元件上设置有一定数量的浮雕,所述浮雕的凹槽深度不同。
本发明实施例的人脸状态监控方法,通过结构光获取用户的人脸3D模型,将人脸3D模型与预存的参考人脸3D模型进行对比,以识别用户的人脸状态,并在终端设备上显示识别出的人脸状态。本发明实施例中,基于结构光构建人脸3D模型,通过将构建的用户的人脸3D模型与预存的参考人脸3D模型进行对比,识别用户的人脸状态,并在终端设备上显示识别结果,实现了用户通过终端设备即可实时了解人脸状态,方便、快捷。由于人脸状态可以反映出人体状态,进而实现了对用户人体状态的实时监控。
本发明第二方面实施例提出了一种人脸状态监控装置,包括:
模型获取模块,用于基于结构光获取用户的人脸3D模型;
对比识别模块,用于将所述人脸3D模型与预存的参考人脸3D模型进行对比,以识别所述用户的人脸状态;
显示模块,用于在终端设备上显示识别出的所述人脸状态。
作为第二方面实施例一种可能的实现方式,所述对比识别模块,包括:
提取单元,用于从所述人脸3D模型中提取所述用户的第一脸部特征;
比较单元,用于将所述第一脸部特征与所述参考人脸3D模型的第二脸部特征进行比较;
识别单元,用于如果所述第一脸部特征所表征出的人脸尺寸大于所述第二脸部特征所表征出的人脸尺寸且两者之间的差异大于预设的第一阈值,则识别所述人脸状态为肥胖状态;以及如果所述第一脸部特征所表征出的人脸尺寸小于所述第二脸部特征所表征出的人脸尺寸且两者之间的差异大于预设的第二阈值,则识别所述人脸状态为消瘦状态。
作为第二方面实施例一种可能的实现方式,所述比较单元,还用于:
根据所述第一脸部特征确定所述用户的脸型;
从所有的参考人脸3D模型中,获取与所述脸型匹配的参考人脸3D模型。
作为第二方面实施例一种可能的实现方式,所述人脸状态监控装置,还包括:设置模块,用于预先为不同的脸型设置不同的参考人脸3D模型;其中,不同的参考人脸3D模型对应人脸不同的胖瘦等级;
所述比较单元,还用于根据所述用户的脸型获取至少一个第一参考人脸3D模型;将所述第一脸部特征与每个所述第一参考人脸3D模型的第二脸部特征进行比较;确定所述第一脸部特征与每个所述第二脸部特征之间的差异;
所述识别单元,还用于将差异最小的所述第二脸部特征对应的第一参考人脸3D模型作为目标参考人脸3D模型;将所述目标参考人脸3D模型对应的胖瘦等级作为所述用户的人脸状态。
作为第二方面实施例一种可能的实现方式,所述人脸状态监控装置还包括:
所述比较单元,还用于获取标准胖瘦的所述第一参考人脸3D模型;将所述第一脸部特征与所述标准胖瘦的所述第一人脸参考3D模型的第三脸部特征进行比较;
所述显示模块,还用于将比较结果在所述终端设备上进行显示。
作为第二方面实施例一种可能的实现方式,所述模型获取模块包括:
发射单元,用于向所述用户的人脸发射结构光;
采集形成单元,用于采集所述结构光在所述人脸上的反射光并形成人脸的深度图像;
重构单元,用于基于所述深度图像重构所述人脸3D模型。
本发明实施例的人脸状态监控装置,通过结构光获取用户的人脸3D模型,将人脸3D模型与预存的参考人脸3D模型进行对比,以识别用户的人脸状态,并在终端设备上显示识别出的人脸状态。本发明实施例中,基于结构光构建人脸3D模型,通过将构建的用户的人脸3D模型与预存的参考人脸3D模型进行对比,识别用户的人脸状态,并在终端设备上显示识别结果,实现了用户通过终端设备即可实时了解人脸状态,方便、快捷。由于人脸状态可以反映出人体状态,进而实现了对用户人体状态的实时监控。
本发明第三方面实施例提出了一种终端设备,包括存储器及处理器,存储器中储存有计算机可读指令,指令被处理器执行时,使得处理器执行如第一方面实施例所述的人脸状态监控方法。
本发明第四方面实施例提出了一种计算机可读存储介质。一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当计算机可执行指令被一个或多个处理器执行时,使得处理器执行如第一方面实施例所述的人脸状态监控方法。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种人脸状态监控方法的流程示意图;
图2为本发明实施例提供的一个投射结构光的装置组合示意图;
图3为本发明实施例提供的不同形式的结构光的示意图;
图4为本发明实施例提供的另一种人脸状态监控方法的流程示意图;
图5为本发明实施例提供的一种非均匀的结构光的投影集合示意图;
图6为本发明实施例提供的一种人脸状态监控装置的结构示意图;
图7为本发明实施例提供的另一种人脸状态监控装置的结构示意图;
图8为本发明实施例提供的一种图像处理电路的示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
下面参考附图描述本发明实施例的人脸状态监控方法及装置。
图1为本发明实施例提供的一种人脸状态监控方法的流程示意图。
如图1所示,该人脸状态监控方法包括以下步骤:
步骤101,基于结构光获取用户的人脸3D模型。
其中,已知空间方向光的投影的集合称为结构光。
作为一种示例,图2为一个投射结构光的装置组合示意图。图2中仅以结构光的投影集合为线的集合进行示例,对于投影集合为散斑图案的结构光的原理类似。如图2所示,该装置中可以包括光学投射器和摄像机,其中,光学投射器将一定模式的结构光投射于被测物体(用户的头部)所处的空间内,在用户的头部表面上形成由头部表面的形状所调制的光条的三维图像。该三维图像由处于另一位置的摄像机探测,从而获得畸变的光条二维图像。光条的畸变程度取决于光学投射器与摄像机之间的相对位置和用户头部表面的轮廓,直观上,沿光条显示出的位移(或偏移)与用户头部表面的高度成比例,扭曲表示了平面的变化,不连续显示了用户头部表面的物理间隙,当光学投射器与摄像机之间的相对位置一定时,由畸变的光条二维图像坐标即可重现用户的头部表面的三维轮廓,即获得人脸3D模型。
作为一种示例,可以采用公式(1)计算获得人脸3D模型,其中,公式(1)如下所示:
其中,(x,y,z)为获取的人脸3D模型的坐标,b为投射装置与摄像头之间的基线间距,F为摄像头的焦距,θ为投射装置向用户头部所处的空间投射预设的散斑图案时的投影角度,(x′,y′)为带有散斑图案的用户的二维畸变图像的坐标。
作为一种示例,结构光的类型包括光栅型、光点型、斑纹型(包括圆形斑纹和十字斑纹),如图3所示,上述结构光是均匀排布的。对应地,生成结构光的设备可以是将光点、线、光栅、格网或斑纹投影到被测物体上的某种投影设备或仪器,比如光学投射器,也可以是生成激光束的激光器。
优选地,本发明实施例中的摄像头可以为终端的前置摄像头。由此,当用户拿起终端并面对终端的显示屏方向时,可调用终端的投射装置和前置摄像头完成对该用户的人脸3D模型的获取。
步骤102,将人脸3D模型与预存的参考人脸3D模型进行对比,以识别用户的人脸状态。
本实施例中,终端设备上的应用程序中可以存储用于与用户的人脸3D模型进行对比的参考人脸3D模型,该参考人脸3D模型可以是在用户健康状态下,基于结构光构建的人脸3D模型,能够反映人脸的正常状态,也可以是经过多次调整构建的标准的人脸3D模型。终端设备上的应用程序也可以从服务器上实时下载参考人脸3D模型,新下载的参考人脸3D模型可以存储到终端设备上。
在终端设备完成对用户的人脸3D模型构建之后,应用程序可从本地中获取参考人脸3D模型,然后将用户人脸3D模型与参考人脸3D模型进行对比。
作为一种示例,构建完人脸的3D模型后,可以从用户的人脸3D模型中提取到用户脸部的尺寸,然后根据获取到的脸部尺寸与参考人脸3D模型中脸部尺寸进行对比。本实施例中,构建的参考人脸3D模型为标准胖瘦的人脸模型,因此,对比时如果用户的脸部尺寸大于参考人脸的脸部尺寸超过一定的阈值,说明用户的脸部尺寸较大,用户的脸部存在肥胖的问题。而如果小于参考人脸的脸部尺寸超过一定的阈值,说明用户的脸部尺寸较小,用户的脸部存在消瘦的问题。肥胖或消瘦均可以确定用户的脸部处于非正常状态。
作为另一种示例,可以通过另外一个摄像头采集人脸的色彩图像,然后利用该色彩图像中的色彩信息,填充基于结构光构建的3D模型,形成携带色彩的人脸3D模型,然后可以将用户人脸3D模型中人脸的颜色与参考人脸3D模型中人脸的颜色进行对比。如果脸的颜色相差不大,可以确定用户的脸色处于正常状态;如果脸的颜色相差较大,可以确定用户的脸色处于非正常状态。
步骤103,在终端设备上显示识别出的人脸状态。
本实施例中,可将识别结果通过文字的方式显示在终端设备的显示屏幕上,也可以通过语音的方式播放识别结果。
进一步地,如果识别出用户的人脸状态为非正常状态,在显示识别结果的同时,可同时显示改善人脸状态的建议。
下面通过另一个实施例,来说明本发明提出的人脸状态监控方法。
图4为本发明实施例提供的另一种人脸状态监控方法的流程示意图。
如图4所示,该人脸状态监控方法包括以下步骤:
步骤401,向用户发射结构光。
本实施例中,可以在终端中设置投射装置,用于向用户的人脸发射结构光。当用户将终端对着人脸时,终端中设置的投射装置可以向人脸发射结构光。
步骤402,采集结构光在人脸上的反射光并形成人脸的深度图像。
本实施例中,可通过手机正面的摄像头采集结构光在人脸上的反射光。当向人脸发射的结构光到达人脸之后,由于人脸上各个面部器官会对结构光造成阻碍,结构光会在人脸处发生反射,此时,可以通过终端中设置的摄像头对结构光在人脸上的反射光进行采集,通过采集到的反射光可以形成人脸的深度图像。
步骤403,基于深度图像重构人脸3D模型。
具体的,人脸的深度图像中可能包括人脸和背景,首先对深度图像进行去噪处理及平滑处理,来获取人脸所在区域的图像,进而通过前后景分割等处理,将人脸与背景图分割。
在将人脸从深度图像中提取出来后,即可从人脸的深度图像中提取密集点数据,进而根据提取的密集点数据,将这些特征点连接成网络。比如,根据各个点在空间上的距离关系,将相同平面的点,或者距离在阈值范围内的点连接成三角形网络,进而将这些网络进行拼接,就可以生成人脸3D模型。
步骤404,从用户的人脸3D模型中提取用户的第一脸部特征。
本实施例中,可将用户的人脸3D模型的脸部特征与参考人脸3D模型的脸部特征进行对比,以通过脸部特征识别人脸状态。
作为一种示例,可从用户的人脸3D模型中提取用户的第一脸部特征,如鼻子、脸颊、下巴等。
步骤405,根据第一脸部特征确定用户的脸型。
本实施例中,脸型可包括圆形、长方、瓜子形等。具体地,可根据第一脸部特征所表征的尺寸,如脸的长度、脸的宽度、脸颊之间的距离、下巴的宽度、下巴的长度等,确定用户的脸型。
步骤406,从所有的参考人脸3D模型中,获取与用户的脸型匹配的参考人脸3D模型。
本实施例中,终端设备中存储了不同脸型的参考人脸3D模型。在确定用户的脸型后,根据用户的脸型,从所有参考人脸3D模型中,获取与用户脸型匹配的参考人脸3D模型。例如,用户的脸型为圆形,则从所有的参考人脸3D模型中,获取脸型为圆形的参考人脸3D模型。
步骤407,将人脸3D模型与获取到与用户脸型匹配的参考人脸3D模型进行对比,以识别用户的人脸状态。
本实施例中,将第一脸部特征与获取的匹配的参考人脸3D模型的第二脸部特征进行比较。
如果第一脸部特征表征出的人脸尺寸大于第二脸部特征所表征出的人脸尺寸,且两者之间的差异大于预设的第一阈值,则识别人脸状态为肥胖状态。如果第一脸部特征所表征出的人脸尺寸小于第二脸部特征所表征出的人脸尺寸且两者之间的差异大于预设的第二阈值,则识别人脸状态为消瘦状态。例如,如果用户脸的长度或者宽度大于参考人脸3D模型中脸的长度或宽度且两者之间的差异超过预设的第一阈值,可以确定用户人脸处于肥胖状态。
作为另一个示例,可预先为不同的脸型设置不同的参考人脸3D模型,其中,不同的参考人脸3D模型对应不同的胖瘦等级,以通过参考人脸3D模型对应的胖瘦等级确定用户的胖瘦状态。其中,脸型可包括圆形、长方形、瓜子形等,每种脸型有不同胖瘦等级的参考人脸3D模型,其中胖瘦等级可包括肥胖、偏胖、正常、偏瘦、消瘦等。
具体地,获取与用户脸型对应的至少一个第一参考人脸3D模型。之后,将第一脸部特征与每个第一参考人脸3D模型的第二脸部特征进行比较,并确定第一脸部特征与每个第二脸部特征之间的差异。最后,将差异最小的第二脸部特征对应的第一参考人脸3D模型作为目标参考人脸3D模型,并将目标参考人脸3D模型对应的胖瘦等级作为用户的人脸状态。例如,经确定用户的脸型为圆形,将第一脸部特征与圆形对应的多个参考人脸3D模型的第二脸部特征进行比较,并将与用户人脸3D模型之间的差异最小的第一参考人脸3D模型对应的胖瘦等级作为用户的人脸状态。
本实施例中,通过为不同的脸型设置不同的参考人脸3D模型,且不同的参考人脸3D模型对应的不同胖瘦等级,提高了识别精度。
作为又一个示例,可将用户人脸3D模型与标准胖瘦的第一参考人脸3D模型进行对比。具体地,可预先对标准胖瘦的第一参考人脸3D模型进行标注,在确定用户的脸型后,从该脸型对应的第一参考人脸3D模型中获取标准胖瘦的第一参考人脸3D模型。然后,将第一脸部特征与标准胖瘦的第一参考人脸3D模型的第三脸部特征进行比较。如果第一脸部特征所表征出的人脸尺寸大于标准胖瘦的第一参考人脸3D模型的第三脸部特征所表征出的人脸尺寸,可识别用户的人脸状态为肥胖状态。如果第一脸部特征所表征出的人脸尺寸小于标准胖瘦的第一参考人脸3D模型的第三脸部特征所表征出的人脸尺寸,可识别用户的人脸状态为消瘦状态。
本实施例中,终端设备的应用程序中存储的参考人脸3D模型,可预先按照脸型进行分类。在确定了用户的脸型后,将第一脸部特征与该脸型对应的参考人脸3D模型进行对比,以确定用户的人脸状态。从而,避免与所有参考人脸3D模型进行对比,提高了识别速度和精度。
步骤408,在终端设备上显示识别出的人脸状态。
本实施例中,可将识别结果通过文字的方式显示在终端设备的显示屏幕上,也可以通过语音的方式播放识别结果。
此处需要说明的是,作为一种示例,上述实施例中采用的结构光可以为非均匀的结构光,非均匀的结构光为多个光斑的集合构成的散斑图案或乱点图案。
图5为本发明实施例中非均匀的结构光的投影集合示意图。如图5所示,本发明实施例中采用的是非均匀的结构光,其中,非均匀的结构光为随机排列非均匀的散斑图案,也就是说,该非均匀的结构光为多个光斑的集合,且多个光斑之间采用不均匀的分散方式排布,进而构成一个散斑图案。由于散斑图案所占的存储空间较小,因而,投射装置运行时不会对终端的运行效率造成太大影响,能够节约终端的存储空间。
此外,本发明实施例中采用的散斑图案,相较于其他现有的结构光类型而言,散列排布能够降低能量消耗,节省电量,提高终端的续航能力。
在本发明实施例中,可以在电脑、手机、掌上电脑等终端中设置投射装置和摄像头。投射装置向用户发射非均匀的结构光即散斑图案。具体地,可以利用投射装置中的衍射光学元件形成散斑图案,其中,该衍射光学元件上设置有一定数量的浮雕,不规则的散斑图案就由衍射光学元件上不规则的浮雕产生。本发明实施例中,浮雕凹槽深度和数量可以通过算法设置。
其中,投射装置可以用于向被测对象所处的空间投射一个预设的散斑图案。摄像头可以用于对已投射散斑图案的被测对象进行采集,以得到带有散斑图案的被测对象的二维畸变图像。
本发明实施例中,当终端的摄像头对准用户的头部时,终端中的投射装置可以向用户头部所处的空间投射预设的散斑图案,该散斑图案中具有多个散斑点,当该散斑图案被投射到用户头部表面上时,该散斑图案中的好多散斑点会由于头部表面包含的各个器官的原因而发生偏移。通过终端的摄像头对用户的头部进行采集,得到带有散斑图案的用户头部的二维畸变图像。
进一步地,将采集到的头部的散斑图像与参考散斑图像按照预定算法进行图像数据计算,获取头部的散斑图像的各个散斑点相对于参考散斑点的移动距离。最后根据该移动距离、参考散斑图像与终端上摄像头的距离以及投射装置与摄像头之间的相对间隔值,利用三角法得到散斑图像的各个散斑点的深度值,并根据该深度值得到人脸的深度图像,进而根据深度图像可获得人脸3D模型。
本发明实施例的人脸状态监控方法,通过结构光获取用户的人脸3D模型,将人脸3D模型与预存的参考人脸3D模型进行对比,以识别用户的人脸状态,并在终端设备上显示识别出的人脸状态。本发明实施例中,基于结构光构建人脸3D模型,通过将构建的用户的人脸3D模型与预存的参考人脸3D模型进行对比,识别用户的人脸状态,并在终端设备上显示识别结果,实现了用户通过终端设备即可实时了解人脸状态,方便、快捷。由于人脸状态可以反映出人体状态,进而实现了对用户人体状态的实时监控。
本发明还提出一种人脸状态监控装置。
如图6所示,该人脸状态监控装置包括:模型获取模块610、对比识别模块620、显示模块630。
其中,模型获取模块610用于基于结构光获取用户的人脸3D模型。
对比识别模块620用于将人脸3D模型与预存的参考人脸3D模型进行对比,以识别用户的人脸状态。
显示模块630用于在终端设备上显示识别出的人脸状态。
在本实施例一种可能的实现方式中,如图7所示,对比识别模块620包括:提取单元621、比较单元622、识别单元623。
提取单元621用于从人脸3D模型中提取用户的第一脸部特征。
比较单元622用于将第一脸部特征与参考人脸3D模型的第二脸部特征进行比较。
识别单元623用于如果第一脸部特征所表征出的人脸尺寸大于第二脸部特征所表征出的人脸尺寸且两者之间的差异大于预设的第一阈值,则识别人脸状态为肥胖状态;如果第一脸部特征所表征出的人脸尺寸小于第二脸部特征所表征出的人脸尺寸且两者之间的差异大于预设的第二阈值,则识别人脸状态为消瘦状态。
在本实施例一种可能的实现方式中,比较单元622还用于:
根据第一脸部特征确定用户的脸型;
从所有的参考人脸3D模型中,获取与脸型匹配的参考人脸3D模型。
在本实施例一种可能的实现方式中,人脸状态监控装置,还包括:设置模块,用于预先为不同的脸型设置不同的参考人脸3D模型;其中,不同的参考人脸3D模型对应人脸不同的胖瘦等级。
比较单元622还用于根据用户的脸型获取至少一个第一参考人脸3D模型;将第一脸部特征与每个第一参考人脸3D模型的第二脸部特征进行比较;确定第一脸部特征与每个第二脸部特征之间的差异。
识别单元623还用于将差异最小的第二脸部特征对应的第一参考人脸3D模型作为目标参考人脸3D模型;将目标参考人脸3D模型对应的胖瘦等级作为用户的人脸状态。
在本实施例一种可能的实现方式中,人脸状态监控装置还包括:
比较单元622还用于获取标准胖瘦的第一参考人脸3D模型;将第一脸部特征与标准胖瘦的所述第一人脸参考3D模型的第三脸部特征进行比较;
显示模块630还用于将比较结果在终端设备上进行显示。
在本实施例一种可能的实现方式中,模型获取模块610包括:
发射单元,用于向用户的人脸发射结构光;
采集形成单元,用于采集结构光在人脸上的反射光并形成人脸的深度图像;
重构单元,用于基于深度图像重构人脸3D模型。
上述人脸状态监控装置中各个模块的划分仅用于举例说明,在其他实施例中,可将人脸状态监控装置按照需要划分为不同的模块,以完成上述人脸状态监控装置的全部或部分功能。
需要说明的是,前述对人脸状态监控方法实施例的解释说明,也适用于本实施例的人脸状态监控装置,在此不再赘述。
本发明实施例的人脸状态监控装置,通过结构光获取用户的人脸3D模型,将人脸3D模型与预存的参考人脸3D模型进行对比,以识别用户的人脸状态,并在终端设备上显示识别出的人脸状态。本发明实施例中,基于结构光构建人脸3D模型,通过将构建的用户的人脸3D模型与预存的参考人脸3D模型进行对比,识别用户的人脸状态,并在终端设备上显示识别结果,实现了用户通过终端设备即可实时了解人脸状态,方便、快捷。由于人脸状态可以反映出人体状态,进而实现了对用户人体状态的实时监控。
本发明实施例还提供一种终端设备。上述终端设备中包括图像处理电路,图像处理电路可以利用硬件和/或软件组件实现,可包括定义ISP(Image Signal Processing,图像信号处理)管线的各种处理单元。图8为一个实施例中图像处理电路的示意图。如图8所示,为便于说明,仅示出与本发明实施例相关的图像处理技术的各个方面。
如图8所示,图像处理电路800包括成像设备810、ISP处理器830和控制逻辑器840。成像设备810可包括具有一个或多个透镜812、图像传感器814的照相机和结构光投射器816。结构光投射器816将结构光投影至被测物。其中,该结构光图案可为激光条纹、格雷码、正弦条纹、或者,随机排列的散斑图案等。图像传感器814捕捉投影至被测物形成的结构光图像,并将结构光图像发送至ISP处理器830,由ISP处理器830对结构光图像进行解调获取被测物的深度信息。同时,图像传感器814也可以捕捉被测物的色彩信息。当然,也可以由两个图像传感器814分别捕捉被测物的结构光图像和色彩信息。
其中,以散斑结构光为例,ISP处理器830对结构光图像进行解调,具体包括,从该结构光图像中采集被测物的散斑图像,将被测物的散斑图像与参考散斑图像按照预定算法进行图像数据计算,获取被测物上散斑图像的各个散斑点相对于参考散斑图像中的参考散斑点的移动距离。利用三角法转换计算得到散斑图像的各个散斑点的深度值,并根据该深度值得到被测物的深度信息。
当然,还可以通过双目视觉的方法或基于飞行时差TOF的方法来获取该深度图像信息等,在此不做限定,只要能够获取或通过计算得到被测物的深度信息的方法都属于本实施方式包含的范围。
在ISP处理器830接收到图像传感器814捕捉到的被测物的色彩信息之后,可被测物的色彩信息对应的图像数据进行处理。ISP处理器830对图像数据进行分析以获取可用于确定和/或成像设备810的一个或多个控制参数的图像统计信息。图像传感器814可包括色彩滤镜阵列(如Bayer滤镜),图像传感器814可获取用图像传感器814的每个成像像素捕捉的光强度和波长信息,并提供可由ISP处理器830处理的一组原始图像数据。
ISP处理器830按多种格式逐个像素地处理原始图像数据。例如,每个图像像素可具有8、10、12或14比特的位深度,ISP处理器830可对原始图像数据进行一个或多个图像处理操作、收集关于图像数据的图像统计信息。其中,图像处理操作可按相同或不同的位深度精度进行。
ISP处理器830还可从图像存储器820接收像素数据。图像存储器820可为存储器装置的一部分、存储设备、或电子设备内的独立的专用存储器,并可包括DMA(Direct MemoryAccess,直接直接存储器存取)特征。
当接收到原始图像数据时,ISP处理器830可进行一个或多个图像处理操作。
在ISP处理器830获取到被测物的色彩信息和深度信息后,可对其进行融合,得到三维图像。其中,可通过外观轮廓提取方法或轮廓特征提取方法中的至少一种提取相应的被测物的特征。例如通过主动形状模型法ASM、主动外观模型法AAM、主成分分析法PCA、离散余弦变换法DCT等方法,提取被测物的特征,在此不做限定。再将分别从深度信息中提取到被测物的特征以及从色彩信息中提取到被测物的特征进行配准和特征融合处理。这里指的融合处理可以是将深度信息以及色彩信息中提取出的特征直接组合,也可以是将不同图像中相同的特征进行权重设定后组合,也可以有其他融合方式,最终根据融合后的特征,生成三维图像。
三维图像的图像数据可发送给图像存储器820,以便在被显示之前进行另外的处理。ISP处理器830从图像存储器820接收处理数据,并对所述处理数据进行原始域中以及RGB和YCbCr颜色空间中的图像数据处理。三维图像的图像数据可输出给显示器860,以供用户观看和/或由图形引擎或GPU(Graphics Processing Unit,图形处理器)进一步处理。此外,ISP处理器830的输出还可发送给图像存储器820,且显示器860可从图像存储器820读取图像数据。在一个实施例中,图像存储器820可被配置为实现一个或多个帧缓冲器。此外,ISP处理器830的输出可发送给编码器/解码器850,以便编码/解码图像数据。编码的图像数据可被保存,并在显示于显示器860设备上之前解压缩。编码器/解码器850可由CPU或GPU或协处理器实现。
ISP处理器830确定的图像统计信息可发送给控制逻辑器840单元。控制逻辑器840可包括执行一个或多个例程(如固件)的处理器和/或微控制器,一个或多个例程可根据接收的图像统计信息,确定成像设备810的控制参数。
以下为运用图8中图像处理技术实现终端控制方法的步骤:
基于结构光获取用户的人脸3D模型;
将人脸3D模型与预存的参考人脸3D模型进行对比,以识别用户的人脸状态;
在终端设备上显示识别出的人脸状态。
本发明实施例还提供了一种计算机可读存储介质。一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当所述计算机可执行指令被一个或多个处理器执行时,使得所述处理器执行以下步骤:
基于结构光获取用户的人脸3D模型;
将人脸3D模型与预存的参考人脸3D模型进行对比,以识别用户的人脸状态;
在终端设备上显示识别出的人脸状态。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种人脸状态监控方法,其特征在于,包括:
基于结构光获取用户的人脸3D模型;
将所述人脸3D模型与预存的参考人脸3D模型进行对比,以识别所述用户的人脸状态;
在终端设备上显示识别出的所述人脸状态。
2.根据权利要求1所述的方法,其特征在于,所述将所述人脸3D模型与预存的参考人脸3D模型进行对比,以识别所述用户的人脸状态,包括:
从所述人脸3D模型中提取所述用户的第一脸部特征;
将所述第一脸部特征与所述参考人脸3D模型的第二脸部特征进行比较;
如果所述第一脸部特征所表征出的人脸尺寸大于所述第二脸部特征所表征出的人脸尺寸且两者之间的差异大于预设的第一阈值,则识别所述人脸状态为肥胖状态;
如果所述第一脸部特征所表征出的人脸尺寸小于所述第二脸部特征所表征出的人脸尺寸且两者之间的差异大于预设的第二阈值,则识别所述人脸状态为消瘦状态。
3.根据权利要求2所述的方法,其特征在于,所述将所述第一脸部特征与所述参考人脸3D模型的第二脸部特征进行比较,包括:
根据所述第一脸部特征确定所述用户的脸型;
从所有的参考人脸3D模型中,获取与所述脸型匹配的参考人脸3D模型。
4.根据权利要求3所述的方法,其特征在于,还包括:
预先为不同的脸型设置不同的参考人脸3D模型;其中,不同的参考人脸3D模型对应人脸不同的胖瘦等级;
所述根据所述第一脸部特征确定所述用户的脸型之后,包括:
根据所述用户的脸型获取至少一个第一参考人脸3D模型;
将所述第一脸部特征与每个所述第一参考人脸3D模型的第二脸部特征进行比较;
确定所述第一脸部特征与每个所述第二脸部特征之间的差异;
将差异最小的所述第二脸部特征对应的第一参考人脸3D模型作为目标参考人脸3D模型;
将所述目标参考人脸3D模型对应的胖瘦等级作为所述用户的人脸状态。
5.根据权利要求4所述的方法,其特征在于,还包括:
获取标准胖瘦的所述第一参考人脸3D模型;
将所述第一脸部特征与所述标准胖瘦的所述第一人脸参考3D模型的第三脸部特征进行比较;
将比较结果在所述终端设备上进行显示。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述基于结构光获取所述户的人脸3D模型,包括:
向所述用户的人脸发射结构光;
采集所述结构光在所述人脸上的反射光并形成人脸的深度图像;
基于所述深度图像重构所述人脸3D模型。
7.根据权利要求6所述的方法,其特征在于,所述结构光为非均匀的结构光,所述非均匀的结构光为多个光斑的集合构成的散斑图案或乱点图案,是由设置在终端上的投射装置中的衍射光学元件形成的,其中,所述衍射光学元件上设置有一定数量的浮雕,所述浮雕的凹槽深度不同。
8.一种人脸状态监控装置,其特征在于,包括:
模型获取模块,用于基于结构光获取用户的人脸3D模型;
对比识别模块,用于将所述人脸3D模型与预存的参考人脸3D模型进行对比,以识别所述用户的人脸状态;
显示模块,用于在终端设备上显示识别出的所述人脸状态。
9.一种终端设备,包括存储器及处理器,所述存储器中储存有计算机可读指令,所述指令被所述处理器执行时,使得所述处理器执行如权利要求1-7中任一所述的人脸状态监控方法。
10.一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当所述计算机可执行指令被一个或多个处理器执行时,使得所述处理器执行如权利要求1-7中任一项所述的人脸状态监控方法。
CN201710643846.0A 2017-07-31 2017-07-31 人脸状态监控方法及装置 Pending CN107423716A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710643846.0A CN107423716A (zh) 2017-07-31 2017-07-31 人脸状态监控方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710643846.0A CN107423716A (zh) 2017-07-31 2017-07-31 人脸状态监控方法及装置

Publications (1)

Publication Number Publication Date
CN107423716A true CN107423716A (zh) 2017-12-01

Family

ID=60431748

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710643846.0A Pending CN107423716A (zh) 2017-07-31 2017-07-31 人脸状态监控方法及装置

Country Status (1)

Country Link
CN (1) CN107423716A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107563304A (zh) * 2017-08-09 2018-01-09 广东欧珀移动通信有限公司 终端设备解锁方法及装置、终端设备
CN108171182A (zh) * 2017-12-29 2018-06-15 广东欧珀移动通信有限公司 电子装置、人脸识别方法及相关产品
CN108366246A (zh) * 2018-04-20 2018-08-03 盎锐(上海)信息科技有限公司 用于拍摄3d影像的拍摄装置及信息输出方法
CN108701232A (zh) * 2018-05-09 2018-10-23 深圳阜时科技有限公司 目标的三维映射的方法及装置、身份识别装置与电子设备
CN108713203A (zh) * 2018-05-09 2018-10-26 深圳阜时科技有限公司 一种光源模组、图像获取装置、身份识别装置及电子设备
CN108769509A (zh) * 2018-04-28 2018-11-06 Oppo广东移动通信有限公司 控制摄像头的方法、装置、电子设备及存储介质
CN108780502A (zh) * 2018-05-09 2018-11-09 深圳阜时科技有限公司 用于目标的三维映射装置、身份识别装置与电子设备
CN109218588A (zh) * 2018-10-31 2019-01-15 Oppo广东移动通信有限公司 图像获取方法、图像获取装置、结构光组件及电子装置
US11335028B2 (en) 2018-02-27 2022-05-17 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Control method based on facial image, related control device, terminal and computer device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150125046A1 (en) * 2013-11-01 2015-05-07 Sony Corporation Information processing device and information processing method
CN105488524A (zh) * 2015-11-26 2016-04-13 中山大学 一种基于可穿戴设备的唇语识别方法及系统
CN106295520A (zh) * 2016-07-28 2017-01-04 维沃移动通信有限公司 一种胖瘦检测方法及移动终端
CN107085654A (zh) * 2017-04-06 2017-08-22 深圳创维-Rgb电子有限公司 基于人脸图像的健康分析方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150125046A1 (en) * 2013-11-01 2015-05-07 Sony Corporation Information processing device and information processing method
CN105488524A (zh) * 2015-11-26 2016-04-13 中山大学 一种基于可穿戴设备的唇语识别方法及系统
CN106295520A (zh) * 2016-07-28 2017-01-04 维沃移动通信有限公司 一种胖瘦检测方法及移动终端
CN107085654A (zh) * 2017-04-06 2017-08-22 深圳创维-Rgb电子有限公司 基于人脸图像的健康分析方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
范建华: ""基于线结构光的三维视觉表面测量系统关键技术研究"", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107563304A (zh) * 2017-08-09 2018-01-09 广东欧珀移动通信有限公司 终端设备解锁方法及装置、终端设备
CN108171182A (zh) * 2017-12-29 2018-06-15 广东欧珀移动通信有限公司 电子装置、人脸识别方法及相关产品
CN108171182B (zh) * 2017-12-29 2022-01-21 Oppo广东移动通信有限公司 电子装置、人脸识别方法及相关产品
US11335028B2 (en) 2018-02-27 2022-05-17 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Control method based on facial image, related control device, terminal and computer device
CN108366246A (zh) * 2018-04-20 2018-08-03 盎锐(上海)信息科技有限公司 用于拍摄3d影像的拍摄装置及信息输出方法
CN108769509A (zh) * 2018-04-28 2018-11-06 Oppo广东移动通信有限公司 控制摄像头的方法、装置、电子设备及存储介质
CN108701232A (zh) * 2018-05-09 2018-10-23 深圳阜时科技有限公司 目标的三维映射的方法及装置、身份识别装置与电子设备
CN108713203A (zh) * 2018-05-09 2018-10-26 深圳阜时科技有限公司 一种光源模组、图像获取装置、身份识别装置及电子设备
CN108780502A (zh) * 2018-05-09 2018-11-09 深圳阜时科技有限公司 用于目标的三维映射装置、身份识别装置与电子设备
WO2019213864A1 (zh) * 2018-05-09 2019-11-14 深圳阜时科技有限公司 用于目标的三维映射装置、身份识别装置与电子设备
CN109218588A (zh) * 2018-10-31 2019-01-15 Oppo广东移动通信有限公司 图像获取方法、图像获取装置、结构光组件及电子装置

Similar Documents

Publication Publication Date Title
CN107423716A (zh) 人脸状态监控方法及装置
CN107480613A (zh) 人脸识别方法、装置、移动终端和计算机可读存储介质
CN107610077A (zh) 图像处理方法和装置、电子装置和计算机可读存储介质
CN107682607A (zh) 图像获取方法、装置、移动终端和存储介质
CN107481304A (zh) 在游戏场景中构建虚拟形象的方法及其装置
CN107707831A (zh) 图像处理方法和装置、电子装置和计算机可读存储介质
CN107481317A (zh) 人脸3d模型的面部调整方法及其装置
CN107509045A (zh) 图像处理方法和装置、电子装置和计算机可读存储介质
CN107452034A (zh) 图像处理方法及其装置
CN107481101A (zh) 穿衣推荐方法及其装置
CN107734264A (zh) 图像处理方法和装置
CN107491744A (zh) 人体身份识别方法、装置、移动终端和存储介质
CN107895110A (zh) 终端设备的解锁方法、装置及移动终端
CN107707838A (zh) 图像处理方法和装置
CN107610080A (zh) 图像处理方法和装置、电子装置和计算机可读存储介质
CN107707835A (zh) 图像处理方法及装置、电子装置和计算机可读存储介质
CN107644440A (zh) 图像处理方法和装置、电子装置和计算机可读存储介质
CN107464280A (zh) 用户3d建模的匹配方法和装置
CN107509043A (zh) 图像处理方法及装置
CN107705278A (zh) 动态效果的添加方法和终端设备
CN107610078A (zh) 图像处理方法和装置
CN107705356A (zh) 图像处理方法和装置
CN107705277A (zh) 图像处理方法和装置
CN107610076A (zh) 图像处理方法和装置、电子装置和计算机可读存储介质
CN107592491A (zh) 视频通信背景显示方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: Changan town in Guangdong province Dongguan 523860 usha Beach Road No. 18

Applicant after: OPPO Guangdong Mobile Communications Co., Ltd.

Address before: Changan town in Guangdong province Dongguan 523860 usha Beach Road No. 18

Applicant before: Guangdong OPPO Mobile Communications Co., Ltd.

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20171201