活体检测方法和装置、身份认证方法和系统、存储介质
技术领域
本公开涉及身份认证领域,特别涉及一种活体检测方法和装置、身份认证方法和系统、存储介质。
背景技术
当前存在一些欺诈手段来通过人脸检测,例如:
第一、注入应用绕过活体检测。通过注入应用的方式来篡改程序,从而绕过所谓的活体检测功能,使用一张静态照片就可以通过人脸识别。在注入过程中,首先在程序中布置一个了断点,通过不断演示人脸识别流程来触发该断点,然后分析并修改程序储存的值,来达到最终的绕过活体检测的效果。除了注入应用之外,还可以通过查看当前APP(Application,手机软件)的数据结构,修改入参字典来篡改活体检测完成后的图片,从而达到任意个体完成活体检测都可通过的效果,这样同样可以拿着被攻击者的照片来通过静态人脸识别,然后自己眨眼抬头来破解活体检测。
第二、视频攻击绕过活体检测。只需要在朋友圈、个人空间等地方找到被攻击者的一张正面照片,通过3D(3 Dimensions,三维)人脸设计软件,构建被攻击者的人脸模型。然后运用Faceu类软件,实现被攻击者照片中人脸的张嘴、眨眼等操作,即可破解活体检测算法。
第三、脸部模具绕过云端检测。比如,利用Morphable 3D Face Model(三维形变人脸模型),根据某人照片或者视频进行建模并使用3D打印的面具,可以模拟该照片上的人,破解活体检测算法。
第四、利用接口防护不当的设计缺陷。部分APP在使用上传人脸图像时,没有对图像数据进行签名,导致图片可以被工具截获然后篡改,而有的则是在数据报文没有加入时间戳,可以通过重放数据报文的方式来实施破解。
发明内容
鉴于以上技术问题中的至少一项,本公开提供了一种活体检测方法和装置、身份认证方法和系统、存储介质,使用新异刺激引起被检测的人的面部微小动作,并通过计算机视觉的微小动作检测,实现真人活体验证。
根据本公开的一个方面,提供一种活体检测方法,包括:
在用户开始人脸检测之后,控制摄像头开启;
在人脸识别框的预定位置呈现刺激图;
根据人脸预定部位是否出现针对刺激图的朝向反射,确定用户是否为活体。
在本公开的一些实施例中,所述根据人脸预定部位是否出现针对刺激图的朝向反射,确定用户是否为活体包括:
判断人脸预定部位是否出现针对刺激图的朝向反射;
在人脸预定部位出现针对刺激图的朝向反射的情况下,确定用户为活体;
在人脸预定部位未出现针对刺激图的朝向反射的情况下,确定用户不是活体。
在本公开的一些实施例中,所述判断人脸预定部位是否出现针对刺激图的朝向反射包括:
检测人脸中的预定特征点,根据人脸中的预定特征点对人脸进行对齐校准;
获取人脸预定部位随时间的坐标变化;
根据刺激图出现后预定时间内的人脸预定部位的坐标变化量,确定人脸预定部位是否出现针对刺激图的朝向反射。
在本公开的一些实施例中,所述人脸预定部位有多个。
在本公开的一些实施例中,所述根据刺激图出现后预定时间内的人脸预定部位的坐标变化量,确定人脸预定部位是否出现针对刺激图的朝向反射包括:
在至少一个人脸预定部位的坐标变化量大于预定阈值的情况下,确定人脸预定部位出现针对刺激图的朝向反射。
在本公开的一些实施例中,所述根据刺激图出现后预定时间内的人脸预定部位的坐标变化量,确定人脸预定部位是否出现针对刺激图的朝向反射包括:
将刺激图出现后预定时间内的人脸预定部位的坐标变化量输入预定算法模型,以判断人脸预定部位是否出现针对刺激图的朝向反射。
在本公开的一些实施例中,所述检测人脸中的预定特征点,根据人脸中的预定特征点对人脸进行对齐校准包括:
在检测到的人脸上初始化人脸形状模型;
在每个预定特征点的邻域范围内,寻找该预定特征点的最佳匹配点。
在本公开的一些实施例中,在所述人脸预定部位包括头部的情况下,所述检测人脸中的预定特征点包括:
获取每个预定特征点形状变化的点分布模型;
对每个预定特征点的局部外观变化建模;
提取头部姿态信息以及对面部特征点进行三维检测。
在本公开的一些实施例中,在所述人脸预定部位包括眼睛的情况下,所述检测人脸中的预定特征点包括:
检测眼睑、虹膜和瞳孔;
采用检测到的瞳孔和眼睛位置来分别计算眼睛的注视向量。
根据本公开的另一方面,提供一种身份认证方法,包括:
采用如上述任一实施例所述的活体检测方法确定用户是否为活体;
在用户为活体的情况下,根据用户人脸对用户进行身份认证。
根据本公开的另一方面,提供一种活体检测装置,包括:
摄像头控制模块,用于在用户开始人脸检测之后,控制摄像头开启;
刺激图呈现模块,用于在人脸识别框的预定位置呈现刺激图;
活体检测模块,用于根据人脸预定部位是否出现针对刺激图的朝向反射,确定用户是否为活体。
在本公开的一些实施例中,所述活体检测装置用于执行实现如上述任一实施例所述的活体检测方法的操作。
根据本公开的另一方面,提供一种活体检测装置,包括:
存储器,用于存储指令;
处理器,用于执行所述指令,使得所述活体检测装置执行实现如上述任一实施例所述的活体检测方法的操作。
根据本公开的另一方面,提供一种身份认证系统,包括:
活体检测装置,用于根据用户人脸确定用户是否为活体;
身份认证装置,用于在用户为活体的情况下,根据用户人脸对用户进行身份认证;
其中,活体检测装置为如上述任一实施例所述的活体检测装置。
根据本公开的另一方面,提供一种计算机可读存储介质,其中,所述计算机可读存储介质存储有计算机指令,所述指令被处理器执行时实现如上述任一实施例所述的活体检测方法、或如上述任一实施例所述的身份认证方法。
本公开可以使用新异刺激引起被检测的人的面部微小动作,并通过计算机视觉的微小动作检测,从而实现了真人活体验证。
附图说明
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本公开活体检测方法一些实施例的示意图。
图2为本公开活体检测方法另一些实施例的示意图。
图3为本公开身份认证方法一些实施例的示意图。
图4为本公开活体检测装置一些实施例的示意图。
图5为本公开活体检测装置另一些实施例的示意图。
图6为本公开身份认证系统一些实施例的示意图。
具体实施方式
下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为授权说明书的一部分。
在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
发明人通过研究发现:相关技术针对现有的欺诈手段,采用以下方式进行活体检测:
第一、在线图片活体检测。基于图片中人像的破绽(摩尔纹、成像畸形等)来判断目标对象是否为活体,例如在线RGB(红、绿、蓝)活体检测。这可以使用单张或多张判断逻辑,有效防止屏幕二次翻拍等作弊攻击。但是该方法易受图像分辨率、光照等的影响, 如遇视频攻击效果较差。
第二、视频活体检测。诸如H5视频活体验证中,用户上传一个现场录制的视频,录制时读出随机分配的语音校验码。然后通过分析这个视频的人脸信息以及语音校验码是否匹配,从而完成活体检测判断。
第三、运动信息检测。它主要是给出指定动作要求,用户需配合完成。在身份认证时,通过实时检测用户眼睛,嘴巴,头部姿态的状态,或者分析比对嘴部运动是否和阅读一段文字时的嘴型匹配来判断是否是活体。从视频中提取人脸区域的特定运动信息以判定人脸的真假,是目前应用最广的商用技术,大多数采用随机指令交互。一般集成在人脸采集SDK(Software Development Kit,软件开发工具包)里,比如支付宝里弹出的人脸识别校验,就包含这种检测该检测方法。
第四、离线识别SDK中的活体检测。(1)离线近红外活体检测:“NIR近红外光(NearInfrared,NIR)近红外活体”利用近红外成像,基于皮肤和其他材质在光谱反射率上的差异来判定人脸的真假,旨在从可见光波段之外找到更加有效的波段或组合,使真假人脸在成像系统上呈现较大差异。(2)离线3D结构光活体检测:基于3D结构光成像原理,通过人脸表面反射光线构建深度图像,判断目标对象是否为活体,可强效防御图片、视频、屏幕、模具等攻击。IPhone X就是利用该技术进行人脸解锁,以提高手机安全性。(3)离线RGB活体检测。在线图片活体检测的离线版本,相对于在线接口方式,本地处理速度更快,无需担心是否有网络,也无需考虑接口调用次数等消耗。例如,百度AI开放平台的人脸离线识别SDK。
发明人通过研究发现:相关技术仍然存在一些技术问题。例如:对合成的数字人较难应对。通过一张照片,合成的数字人视频,可实现被攻击者照片中人脸的张嘴、眨眼等操作,合成视频攻击绕过活体检测,即可破解活体检测算法。
鉴于以上技术问题中的至少一项,本公开提供了一种活体检测方法和装置、身份认证方法和系统、存储介质,下面通过具体实施例对本公开进行说明。
图1为本公开活体检测方法一些实施例的示意图。优选的,本实施例可由本公开活体检测装置执行。该方法包括以下步骤11-步骤13,其中:
在步骤11中,在用户开始人脸检测之后,控制摄像头开启。
在步骤12中,在人脸识别框的预定位置呈现刺激图。
在本公开的一些实施例中,所述预定位置可以为人脸识别框的上方或下方。
在步骤13中,根据人脸预定部位是否出现针对刺激图的朝向反射,确定用户是否为活体,其中,朝向反射是由情境的新异性引起的一种复杂而又特殊的反射。
在本公开的一些实施例中,所述人脸预定部位可以有多个。
在本公开的一些实施例中,所述人脸预定部位可以为头部、眉毛和眼睛等部位中的至少一项。
在本公开的一些实施例中,步骤13可以包括步骤131-步骤133,其中:
在步骤131中,判断人脸预定部位是否出现针对刺激图的朝向反射。
在本公开的一些实施例中,步骤131可以包括步骤1311-步骤1313,其中:
在步骤1311中,检测人脸中的预定特征点,根据人脸中的预定特征点对人脸进行对齐校准。
在本公开的一些实施例中,步骤1311可以包括:在检测到的人脸上初始化人脸形状模型;在每个预定特征点的邻域范围内,寻找该预定特征点的最佳匹配点。
在本公开的一些实施例中,在所述人脸预定部位包括头部的情况下,步骤1311中所述检测人脸中的预定特征点的步骤可以包括:获取每个预定特征点形状变化的点分布模型;对每个预定特征点的局部外观变化建模;提取头部姿态信息以及对面部特征点进行三维检测。
在本公开的一些实施例中,在所述人脸预定部位包括眼睛的情况下,步骤1311中所述检测人脸中的预定特征点的步骤可以包括:检测眼睑、虹膜和瞳孔;采用检测到的瞳孔和眼睛位置来分别计算眼睛的注视向量。
在步骤1312中,获取人脸预定部位随时间的坐标变化。
在步骤1313中,根据刺激图出现后预定时间内的人脸预定部位的坐标变化量,确定人脸预定部位是否出现针对刺激图的朝向反射。
在本公开的一些实施例中,步骤1313可以包括:在至少一个人脸预定部位的坐标变化量大于预定阈值的情况下,确定人脸预定部位出现针对刺激图的朝向反射。
在本公开的一些实施例中,步骤1313可以包括:将刺激图出现后预定时间内的人脸预定部位的坐标变化量输入预定算法模型,以判断人脸预定部位是否出现针对刺激图的朝向反射。
在本公开的一些实施例中,所述预定算法模型可以为SVM(Support VectorMachine,支持向量机)模型。
在步骤132中,在人脸预定部位出现针对刺激图的朝向反射的情况下,确定用户为活体。
在步骤133中,在人脸预定部位未出现针对刺激图的朝向反射的情况下,确定用户不是活体。
基于本公开上述实施例提供的活体检测方法,是一种基于面部朝向反射的活体身份认证方法。本公开上述实施例为活体检测提供新的思路,基于心理学的研究,使用新异刺激引起被检测的人的面部微小动作(主要是眉毛与眼睑的微小运动),并通过计算机视觉的微小动作检测,实现真人活体验证。而戴面具的人无法做出眨眼与张嘴之外的动作,所以无法出现常规的反应。而合成的数字人视频在对屏幕上呈现的新异刺激的反应与真人不同,包括反应时间与反应的部位均与真人不同。
图2为本公开活体检测方法另一些实施例的示意图。优选的,本实施例可由本公开活体检测装置执行。该方法包括以下步骤21-步骤28,其中:
在步骤21中,在用户开始人脸检测之后,控制摄像头开启,进行身份认证。
在步骤22中,在人脸识别框的预定位置呈现刺激图;之后执行步骤23-步骤25。
在本公开的一些实施例中,如图2所示,所述预定位置可以为人脸识别框的上方或下方。
在本公开的一些实施例中,所述刺激图可以为色彩亮丽的彩色图、动态图、或者彩色动态图。
在本公开的一些实施例中,步骤22可以包括:在摄像头开启第一预定时间后,在人脸识别框的预定位置呈现刺激图。
在本公开的一些实施例中,所述第一预定时间为一个随机时间。
在本公开的一些实施例中,所述随机时间可以为2~4秒。
在本公开的一些实施例中,步骤22可以包括:在用户点击开始、启动身份认证之后,用户的人脸在屏幕的人脸识别框里进行人脸识别。在用户开始人脸检测之后,开启摄像头,2~4秒(时间要随机,以使其呈现时间无法被预测)之间、在屏幕上方或者下方边缘处呈现一个预先确定的卡通人物或者动物(也可以是其它刺激图),这个刺激图一般要求色彩亮丽或者动态,在呈现之后足以引起用户的注意。
在步骤23中,进行眉毛特征点检测。
在本公开的一些实施例中,眉毛特征点检测的方法可以使用常用的特征点检测方式。由于眉毛的轮廓非常清晰,相关技术的特征点检测能够很好地检测眉毛的运动。
在本公开的一些实施例中,步骤23可以包括:检测人脸中的预定特征点(landmark),根据人脸中的预定特征点对人脸进行对齐校准。
在本公开的一些实施例中,所述预定特征点可以为眼角的位置、鼻子的位置、脸的轮廓点等等。
在本公开的一些实施例中,所述检测人脸中的预定特征点,根据人脸中的预定特征点对人脸进行对齐校准的步骤可以包括:在检测到的人脸上初始化人脸形状模型;在每个预定特征点的邻域范围内,寻找该预定特征点的最佳匹配点。
在本公开的一些实施例中,所述检测人脸中的预定特征点,根据人脸中的预定特征点对人脸进行对齐校准的步骤可以包括:采用CLM(Constrained Local Model,约束局部模型)检测人脸中的预定特征点,根据人脸中的预定特征点对人脸进行对齐校准。
在本公开的一些实施例中,CLM属于PDM(point distribution model,点分布模型)。CLM通过初始化平均脸的位置,然后让每个平均脸上的特征点在其邻域位置上进行搜索匹配来完成人脸点检测。CLM的整个过程分两个阶段:模型构建阶段和点拟合阶段。模型构建阶段又可以细分两个不同模型的构建:形状模型构建和Patch模型构建。
在本公开的一些实施例中,所述检测人脸中的预定特征点,根据人脸中的预定特征点对人脸进行对齐校准的步骤可以包括:
在步骤231中,形状模型构建。形状模型构建就是对人脸模型形状进行建模,它描述了形状变化遵循的准则,具体如公式(1)所示:
公式(1)中,
表示平均脸, P
s是形状变化的主成分组成的矩阵,通过主成分分析(PCA)得到的变异的正交模。b
s包含了形状的参数。相似的,
是标准化后的平均灰度向量,P
g变异的正交模,b
g包含了灰度的参数。综合形状与纹理的模型,通过PCA进一步产生一个组合的模型。组合模型的形式如公式(2)所示:
公式(2)中, b 是形状与纹理参数拼接后的向量,Ws指描述形状与纹理单元的适合的权值,c包含组合的外观参数。Pc是一个通过PCA计算得到的正交矩阵,它可以分成两个独立的矩阵Pcs和Pcg。这两个矩阵共同用于计算形状与纹理参数。
在步骤232中,构建好形状模型后,在检测到的人脸上初始化一个人脸形状模型,然后让每个点在其邻域范围内寻找最佳匹配点。
在步骤233中,构建Patch(片)模型,其中,Patch模型是对每个特征点周围邻域进行建模,即建立一个特征点匹配准则,判断特征点是否为最佳匹配。
在步骤24中,进行头部运动检测。
在本公开的一些实施例中,步骤24可以包括:使用CE-CLM (ConvolutionalExperts restricted Local Model,卷积专家约束局部模型)来进行人脸特征点的检测和跟踪。
在本公开的一些实施例中,CE-CLM的两个主要组件包括:捕获特征点形状变化的点分布模型(PDM)和对每个特征点的局部外观变化建模的Patch专家。
在本公开的一些实施例中,步骤24可以包括步骤241-步骤243,其中:
在步骤241中,获取每个预定特征点形状变化的点分布模型。
在步骤242中,对每个预定特征点的局部外观变化建模。
在步骤243中,提取头部姿态信息(平移和方向)以及对面部特征点进行三维检测。
因为本公开上述实施例的CE-CLM内部使用了面部特征点的3D表征,并使用摄像机投影将它们投射到图像上。由此本公开上述实施例能够通过3D特征点点来准确地估计出头部朝向。
在步骤25中,进行眼睛注视点检测。
在本公开的一些实施例中,步骤25可以包括:采用快速准确的独立人眼注视点估计方法进行眼睛注视点检测。
在本公开的一些实施例中,所述采用快速准确的独立人眼注视点估计方法进行眼睛注视点检测的步骤可以包括步骤251-步骤252,其中:
在步骤251中,检测眼睑、虹膜和瞳孔。
在本公开的一些实施例中,步骤251可以包括:使用了一个有约束的局部神经场(CLNF)特征点探测器来检测眼睑、虹膜和瞳孔;使用了SynthesEyes训练数据集,来训练地标探测器。
在步骤252中,采用检测到的瞳孔和眼睛位置来分别计算眼睛的注视向量。
在步骤26中,判断人脸预定部位是否出现针对刺激图的朝向反射。
在本公开的一些实施例中,步骤26可以包括步骤261和步骤262,其中:
在步骤261中,分析人脸预定部位(例如头部、眉毛与眼睛中至少一项)的变化。
在本公开的一些实施例中,步骤261可以包括:追踪各个部位的运动,本公开上述实施例重点关注的是头部方向、眉毛、眼睛随时间的变化。当出现一个新异刺激的时候,人们会不由自主的运动头部,挑动眉毛,睁大眼睛,并且眼球会朝向那个位置。
在本公开的一些实施例中,步骤261还可以包括:如果这个人伴随着头痛,则减去头痛带来的人脸预定部位的坐标变化量,就可以测量他的新异刺激呈现的半秒之内是否作出自然的反应。
在步骤262中,对提取的运动特点做活体判断。即,根据刺激图出现后预定时间内的人脸预定部位的坐标变化量,确定人脸预定部位是否出现针对刺激图的朝向反射。
在本公开的一些实施例中,步骤262可以包括:在至少一个人脸预定部位的坐标变化量大于预定阈值的情况下,确定人脸预定部位出现针对刺激图的朝向反射。
在本公开的一些实施例中,步骤262可以包括:刺激图呈现之后有一个波形变化,眉毛、头部或者眼睛运动至少有其中一个其波幅要超过两个像素点或者两度。
在本公开的另一些实施例中,步骤262可以包括:将刺激图出现后预定时间内的人脸预定部位的坐标变化量输入预定算法模型,以判断人脸预定部位是否出现针对刺激图的朝向反射。
在本公开的另一些实施例中,步骤262可以包括:通过诸如SVM(Support VectorMachine, 支持向量机)的机器学习算法对人脸预定部位的变化是否为朝向反射作判断。具体可以包括:通过人工标定这些运动以及基线状态,然后通过机器学习实现分类。
在步骤27中,在人脸预定部位出现针对刺激图的朝向反射的情况下,确定用户为活体。
在本公开的一些实施例中,步骤27可以包括:人们在出现新异刺激的时候,会做一系列的朝向反射。如果刺激出现之后,用户在第二预定时间之内有一个明显的特征点坐标变化(可视化为波形变化,相对于前面的基线可以看到一个向上的波形),则可以判断这个用户对刺激图做出了反应,认为该用户是一个活体。
在本公开的一些实施例中,所述第二预定时间可以为500毫秒。
在步骤28中,在人脸预定部位未出现针对刺激图的朝向反射的情况下,确定用户不是活体。
本公开上述实施例在进行人脸识别时,可以通过呈现某种视频刺激,引起用户的朝向反射,激发其眼睛及面部表情的运动,基于这些运动检验该用户是否是本人且活体。
本公开上述实施例可以通过对动态视频的分析,基于眉毛处的特征点移动计算其朝向反射时的运动。
本公开上述实施例使用新异刺激引起被检测的人的面部微小动作(主要是眉毛与眼睑的微小运动),并通过计算机视觉的微小动作检测,实现真人活体验证。而戴面具的人无法做出眨眼与张嘴之外的动作,所以无法出现常规的反应。而合成的数字人视频在对屏幕上呈现的新异刺激的反应与真人不同,包括反应时间与反应的部位均与真人不同。由此解决了相关技术的技术问题。
图3为本公开身份认证方法一些实施例的示意图。优选的,本实施例可由本公开身份认证系统执行。该方法包括以下步骤31-步骤32,其中:
步骤31,采用如上述任一实施例(例如图1或图2实施例)所述的活体检测方法确定用户是否为活体。
步骤32,在用户为活体的情况下,根据用户人脸对用户进行身份认证。
在本公开的一些实施例中,步骤32可以包括在用户为活体的情况下,将用户人脸与预存的人脸数据库中的人脸数据进行匹配,以实现对用户的身份认证。
基于本公开上述实施例提供的身份认证方法,在进行人脸识别时,可以通过呈现某种视频刺激,引起用户的朝向反射,激发其眼睛及面部表情的运动,基于这些运动检验该用户是否是本人且活体。
本公开上述实施例可以通过对动态视频的分析,基于眉毛处的特征点移动计算其朝向反射时的运动。
图4为本公开活体检测装置一些实施例的示意图。如图4所示,本公开活体检测装置可以包括摄像头控制模块41、刺激图呈现模块42和活体检测模块43,其中:
摄像头控制模块41,用于在用户开始人脸检测之后,控制摄像头开启。
刺激图呈现模块42,用于在人脸识别框的预定位置呈现刺激图。
在本公开的一些实施例中,所述预定位置可以为人脸识别框的上方或下方。
在本公开的一些实施例中,所述刺激图可以为色彩亮丽的彩色图、动态图、或者彩色动态图。
在本公开的一些实施例中,刺激图呈现模块42可以用于在摄像头开启第一预定时间后,在人脸识别框的预定位置呈现刺激图。
在本公开的一些实施例中,所述第一预定时间为一个随机时间。
在本公开的一些实施例中,所述随机时间可以为2~4秒。
在本公开的一些实施例中,刺激图呈现模块42可以用于在用户点击开始、启动身份认证之后,用户的人脸在屏幕的人脸识别框里进行人脸识别。在用户开始人脸检测之后,开启摄像头,2~4秒(时间要随机,以使其呈现时间无法被预测)之间、在屏幕上方或者下方边缘处呈现一个预先确定的卡通人物或者动物(也可以是其它刺激图),这个刺激图一般要求色彩亮丽或者动态,在呈现之后足以引起用户的注意。
活体检测模块43,用于根据人脸预定部位是否出现针对刺激图的朝向反射,确定用户是否为活体。
在本公开的一些实施例中,所述人脸预定部位可以有多个。
在本公开的一些实施例中,所述人脸预定部位可以为头部、眉毛和眼睛等部位中的至少一项。
在本公开的一些实施例中,活体检测模块43可以用于判断人脸预定部位是否出现针对刺激图的朝向反射;在人脸预定部位出现针对刺激图的朝向反射的情况下,确定用户为活体;在人脸预定部位未出现针对刺激图的朝向反射的情况下,确定用户不是活体。
在本公开的一些实施例中,活体检测模块43在判断人脸预定部位是否出现针对刺激图的朝向反射的情况下,可以用于检测人脸中的预定特征点,根据人脸中的预定特征点对人脸进行对齐校准;获取人脸预定部位随时间的坐标变化;根据刺激图出现后预定时间内的人脸预定部位的坐标变化量,确定人脸预定部位是否出现针对刺激图的朝向反射。
在本公开的一些实施例中,活体检测模块43在根据刺激图出现后预定时间内的人脸预定部位的坐标变化量,确定人脸预定部位是否出现针对刺激图的朝向反射的情况下,可以用于在至少一个人脸预定部位的坐标变化量大于预定阈值的情况下,确定人脸预定部位出现针对刺激图的朝向反射。
在本公开的一些实施例中,活体检测模块43在根据刺激图出现后预定时间内的人脸预定部位的坐标变化量,确定人脸预定部位是否出现针对刺激图的朝向反射的情况下,可以用于将刺激图出现后预定时间内的人脸预定部位的坐标变化量输入预定算法模型,以判断人脸预定部位是否出现针对刺激图的朝向反射。
在本公开的一些实施例中,活体检测模块43在检测人脸中的预定特征点,根据人脸中的预定特征点对人脸进行对齐校准的情况下,可以用于在检测到的人脸上初始化人脸形状模型;在每个预定特征点的邻域范围内,寻找该预定特征点的最佳匹配点。
在本公开的一些实施例中,在所述人脸预定部位包括头部的情况下,活体检测模块43可以用于获取每个预定特征点形状变化的点分布模型;对每个预定特征点的局部外观变化建模;提取头部姿态信息以及对面部特征点进行三维检测。
在本公开的一些实施例中,在所述人脸预定部位包括眼睛的情况下,活体检测模块43可以用于检测眼睑、虹膜和瞳孔;采用检测到的瞳孔和眼睛位置来分别计算眼睛的注视向量。
在本公开的一些实施例中,所述活体检测装置用于执行实现如上述任一实施例(例如图1或图2实施例)所述的活体检测方法的操作。
基于本公开上述实施例提供的活体检测装置,是一种基于面部朝向反射的活体身份认证系统。本公开上述实施例为活体检测提供新的思路,基于心理学的研究,使用新异刺激引起被检测的人的面部微小动作(主要是眉毛与眼睑的微小运动),并通过计算机视觉的微小动作检测,实现真人活体验证。而戴面具的人无法做出眨眼与张嘴之外的动作,所以无法出现常规的反应。而合成的数字人视频在对屏幕上呈现的新异刺激的反应与真人不同,包括反应时间与反应的部位均与真人不同。
图5为本公开活体检测装置另一些实施例的示意图。如图5所示,本公开活体检测装置可以包括存储器51和处理器52,其中:
存储器51,用于存储指令。
处理器52,用于执行所述指令,使得所述活体检测装置执行实现如上述任一实施例(例如图1或图2实施例)所述的活体检测方法的操作。
基于本公开上述实施例提供的活体检测装置,在进行人脸识别时,可以通过呈现某种视频刺激,引起用户的朝向反射,激发其眼睛及面部表情的运动,基于这些运动检验该用户是否是本人且活体。
本公开上述实施例可以通过对动态视频的分析,基于眉毛处的特征点移动计算其朝向反射时的运动。
本公开上述实施例使用新异刺激引起被检测的人的面部微小动作(主要是眉毛与眼睑的微小运动),并通过计算机视觉的微小动作检测,实现真人活体验证。而戴面具的人无法做出眨眼与张嘴之外的动作,所以无法出现常规的反应。而合成的数字人视频在对屏幕上呈现的新异刺激的反应与真人不同,包括反应时间与反应的部位均与真人不同。由此解决了相关技术的技术问题。
图6为本公开身份认证系统一些实施例的示意图。如图6所示,本公开身份认证系统可以包括活体检测装置61和身份认证装置62,其中:
活体检测装置61,用于根据用户人脸确定用户是否为活体。
在本公开的一些实施例中,活体检测装置61可以为如上述任一实施例(图4或图5实施例)所述的活体检测装置。
身份认证装置62,用于在用户为活体的情况下,根据用户人脸对用户进行身份认证。
在本公开的一些实施例中,身份认证装置62可以用于在用户为活体的情况下,将用户人脸与预存的人脸数据库中的人脸数据进行匹配,以实现对用户的身份认证。
基于本公开上述实施例提供的身份认证系统,是一种基于面部朝向反射的活体身份认证系统。本公开上述实施例为活体检测提供新的思路,基于心理学的研究,使用新异刺激引起被检测的人的面部微小动作(主要是眉毛与眼睑的微小运动),并通过计算机视觉的微小动作检测,实现真人活体验证。而戴面具的人无法做出眨眼与张嘴之外的动作,所以无法出现常规的反应。而合成的数字人视频在对屏幕上呈现的新异刺激的反应与真人不同,包括反应时间与反应的部位均与真人不同。
根据本公开的另一方面,提供一种计算机可读存储介质,其中,所述计算机可读存储介质存储有计算机指令,所述指令被处理器执行时实现如上述任一实施例(例如图1或图2实施例)所述的活体检测方法、或如上述任一实施例(例如图3实施例)所述的身份认证方法。
基于本公开上述实施例提供的计算机可读存储介质,使用新异刺激引起被检测的人的面部微小动作(主要是眉毛与眼睑的微小运动),并通过计算机视觉的微小动作检测,实现真人活体验证。而戴面具的人无法做出眨眼与张嘴之外的动作,所以无法出现常规的反应。而合成的数字人视频在对屏幕上呈现的新异刺激的反应与真人不同,包括反应时间与反应的部位均与真人不同。由此解决了相关技术的技术问题。
在上面所描述的等功能单元可以实现为用于执行本申请所描述功能的通用处理器、可编程逻辑控制器(PLC)、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件或者其任意适当组合。
至此,已经详细描述了本公开。为了避免遮蔽本公开的构思,没有描述本领域所公知的一些细节。本领域技术人员根据上面的描述,完全可以明白如何实施这里公开的技术方案。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指示相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
本公开的描述是为了示例和描述起见而给出的,而并不是无遗漏的或者将本公开限于所公开的形式。很多修改和变化对于本领域的普通技术人员而言是显然的。选择和描述实施例是为了更好说明本公开的原理和实际应用,并且使本领域的普通技术人员能够理解本公开从而设计适于特定用途的带有各种修改的各种实施例。