CN105243386A - 人脸活体判断方法以及系统 - Google Patents
人脸活体判断方法以及系统 Download PDFInfo
- Publication number
- CN105243386A CN105243386A CN201410327039.4A CN201410327039A CN105243386A CN 105243386 A CN105243386 A CN 105243386A CN 201410327039 A CN201410327039 A CN 201410327039A CN 105243386 A CN105243386 A CN 105243386A
- Authority
- CN
- China
- Prior art keywords
- face
- eye
- eye image
- sight line
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明的一个方面提供一种人脸活体判断方法,用于区分真实人脸和欺骗人脸,其包括:获取一定数量的人脸图像的步骤;获取每个人脸图像的眼睛图像以及该眼睛图像的特征的步骤;根据获取的眼睛图像的特征以及视线估计模型进行视线预测获得对应数量视线位置的步骤;根据视线词典对所述对应数量视线位置进行量化,建立视线直方图的步骤;和根据视线直方图获得信息熵并进行活体判断的步骤,其中如果熵值大于0,则判定为真实人脸,否则判定为欺骗人脸。本发明提供的人脸活体判断方法是一种既不需要额外的设备也不需要用户配合的人脸活体判断方法,并且由于利用视线行为的不确定性、难被他人通过摄像头等获取的特点,可以有效区分真实人脸和欺骗人脸。
Description
技术领域
本发明涉及一种身份认证技术领域,尤其涉及一种人脸活体判断方法以及系统。
背景技术
人脸识别技术是一种有效的身份认证技术,但是随着人脸识别技术的广泛使用,出现了各种方法冒充人脸以通过身份认证,这种使用非真实的欺骗人脸进行身份认证的方式被称为“人脸攻击”。常见的人脸攻击形式包括以照片、视频播放或3D模型进行的欺骗性识别以通过身份认证。其中照片和视频播放是最常见的攻击方式,人们可以从移动设备或者监控摄像头中轻易地获取合法用户的相关资料。而且随着现代技术的发展,3D人脸的合成和模型的获取不再是一件难以实现的事,例如,ThatsMyFace.com的服务可以通过上传一张正面和一张侧面照片实现3D人脸的重构和3D模型的订制。因此出于信息安全的考虑,在人脸识别系统中加入活体检测的功能受到越来越多的关注。
人们对常见的人脸攻击方式进行分析,认为和真实人脸相比,照片人脸是平面的,并存在二次获取带来的质量损失、模糊等问题;视频人脸具有LCD反光等现象;3D模型人脸运动是刚性运动等。这些都是目前人脸攻击方式存在的弱点,因此,与这些弱点相对应,当前人脸识别中的活体检测方法主要分为三类:基于运动的方法、基于纹理的方法以及融合二者的方法。
基于运动的方法主要是分析图像帧序列的运动趋势,比如通过光流法估计出人脸不同区域的运动趋势来区分真实人脸和照片攻击,或者采用光流法通过估计物体的刚体运动来判断是否活体等各种方法。除了无意识的头部运动,合法用户的其他生物行为也被用来判断是否活体,比如眨眼行为。基于纹理的方法则基于欺骗人脸在二次获取的过程中会带来质量下降、模糊等微纹理的变化,通过找出单帧真实人脸和欺骗人脸的显著性区分特征进行活体判断。
但是,虽然上述两种方法能够在一定程度上抵御人脸攻击,但是仍然存在很多问题,比如基于运动的方法能够抵御照片攻击,对扭曲的照片和视频攻击基本无效。基于纹理的方法能够有效地学习真实人脸和欺骗人脸的判别模型,然而却丢失了图像帧之间的相关信息。
此外,目前还存在基于多模和多频谱的活体检测方法。基于多模的活体检测是将人脸和其他生物特征,如姿态、语音、指纹和手形等结合起来进行身份认证。一般来说,基于多模的生物认证系统比基于单一特征的认证系统抵抗攻击的能力强。基于多频谱的活体检测方法是利用在近红外下真实人脸和欺骗人脸的反射率不同来进行区分。虽然这两类方法取得了较好的活体检测性能,但是此类方法需要额外的设备,甚至在基于多模的活体检测系统中需要用户的配合,加重了用户的负担。
发明内容
本发明鉴于以上问题,提供了一种人脸活体判断方法,用于在人脸识别中区分真实人脸和欺骗人脸,其既不需要额外的设备也不需要用户配合的人脸活体判断方法,可以有效区分真实人脸和欺骗人脸。
本发明的一个方面提供一种人脸活体判断方法,用于在人脸识别中区分真实人脸和欺骗人脸,其包括:获取一定数量的人脸图像的步骤;获取每个人脸图像的眼睛图像以及该眼睛图像的特征的步骤;根据获取的眼睛图像的特征以及视线估计模型进行视线预测获得对应数量视线位置的步骤;根据视线词典对所述对应数量视线位置进行量化,建立视线直方图的步骤;和根据视线直方图获得信息熵并进行活体判断的步骤,其中如果熵值大于0,则判定为真实人脸,否则判定为欺骗人脸。
本发明提供的人脸活体判断方法是一种既不需要额外的设备也不需要用户配合的人脸活体判断方法,并且由于视线行为的不确定性、很难被他人通过摄像头等获取的特性,可以有效区分真实人脸和欺骗人脸。
本发明的另一个方面提供一种活体判断系统,其包括:图像采集单元,其用于采集一定数量的人脸图像;特征提取单元,其用于获取每个人脸图像的眼睛图像以及该眼睛图像的特征;视线估计单元,其根据获取的眼睛图像的特征以及视线估计模型进行视线预测获得对应数量视线位置;视线统计单元,其根据视线词典对所述对应数量视线位置进行量化,建立视线直方图,和活体判断单元,其根据视线直方图获得信息熵并进行活体,其中如果熵值大于0,则判定为真实人脸,否则判定为欺骗人脸。
本发明提供的活体判断系统,利用视线行为的不确定性、难被他人通过摄像头等获取的特性,可以有效区分真实人脸和欺骗人脸。
附图说明
图1是本发明一实施方式的视线估计模型建立方法流程图;
图2是本发明一实施方式用于建立视线估计模型的数据采集系统;
图3是本发明一实施方式获取眼睛图像及特征的示意图;
图4是本发明一实施方式获取眼睛图像及特征的方法流程图;
图5是本发明一实施方式的人脸活体判断方法流程图;
图6是本发明一实施方式视线词典构建示意图;
图7是本发明一实施方式的人脸活体判断系统的结构示意图;
图8是图7所示人脸活体判断系统的特征提取单元的详细结构示意图。
具体实施方式
为使本领域技术人员更好地理解本发明的技术方案,下面结合附图和具体实施方式对本发明提供的人脸活体判断方法和系统进行详细描述。在这些附图中,对于相同或者相当的构成要素,标注相同标号。以下仅为本发明的人脸活体判断方法和系统的最佳实施方式,本发明并不仅限于下述结构。
本发明的人脸活体判断方法及系统,用于在人脸识别中区分真实人脸和欺骗人脸。由于注意力转移过程具有不确定性,视线行为是一种难以被他人通过监控摄像头等设备获取的生物信息,同时,和欺骗人脸相比,真实人脸的视线运动具有更大的不确定性,因此本发明将视线引入活体判断问题中可以有效区分真实人脸和欺骗人脸。本发明的人脸活体判断方法及系统基本思想是获取眼睛图像以及特征,并根据眼睛图像特征及视线估计模型进行视线估计,然后对预测的视线进行量化和统计,进而进行活体判断,即,判断被识别对象是真实人脸还是欺骗人脸。
为此,本发明首先需要建立合适的视线估计模型,利用该模型可以很好地检测到视线变化。现有的视线估计模型主要为:基于外观的方法和基于特征的方法,基于特征的方法需要提取眼睛的局部特征(例如虹膜轮廓、瞳孔和亮斑等),并建立特征与视点之间的映射关系。然而,基于此类方法一般需要高清摄像头甚至需要多个光源或多个摄像头。基于外观的方法首先定位出眼睛区域,然后直接建立眼睛图像与屏幕中视点坐标的映射关系,充分利用了眼睛视线的信息。考虑到本发明提出的人脸活体判断方法在自然光环境下并且不依赖额外的设备或者光源的条件下进行的(实际上,只有一个分辨率为640×480像素的USB摄像头),因此本实施方式选择基于外观的方法对视线方向进行建模。此外,考虑到真实人脸和欺骗人脸存在微纹理的区别,本发明首先对眼睛图像提取局部纹理特征,然后通过回归模型建立局部纹理特征向量和视点之间的映射关系。在本实施方式中,视线估计模型的建立主要通过让用户依次注视计算机屏幕中的9个视点,由此获得9个视线方向的用户正面图像数据,通过回归模型建立用户眼睛图像特征和计算机屏幕中视点的映射关系。下面结合图1~图4来说明本发明视线估计模型的建立和求解。
图1是本发明一实施方式的视线估计模型建立方法流程图;图2是本发明一实施方式用于建立视线估计模型的数据采集系统。如图1所示,该视线估计模型的建立方法包括:步骤S1,数据采集;步骤S2,提取眼睛图像及特征;步骤S3,模型建立和求解。
为了建立视线估计的统计模型,首先进行相关数据的采集,本实施方式的数据采集系统如图2中(a)所示,其由1个19寸大小(分辨率为1440×900像素)的液晶显示器和1个分辨率为640×480像素的USB摄像头构成。在液晶显示器上有9个固定点,称为视点,视点的具体位置见图2中(b)所示,每一个视点的坐标是以像素为单位,图2中(b)中1、2、3….9表示视点的标号,标号右下方、右上方或者左下方括号内的值是对应视点在计算机屏幕中的位置,比如第一个视点的位置为(88,83)。
在步骤S1中,采集对象坐在距离计算机屏幕大约50cm-60cm的地方,并且尽量保持头部的固定。在数据采集的过程中,首先要求采集对象在保持头部固定的前提下目光注视第1个视点(88,83)并保持该视线方向,保存在此期间摄像头捕捉到的采集对象的正面图像,达到30帧后停止图像的保存;然后引导采集对象的视线转向第2个视点(552,83),同样保存用户正面图像30帧;继续下去,直到9个视点下的270帧图像采集完毕为止。以相同的方式,本文采集50个样本注视9个视点的图像,共13500张用户正面图像,人工去除闭眼的图像,剩余12698张有效图像。
需要说明的是,在数据采集中,可以和前述描述一样,每个视点采集30帧图像,但也可以是其他合适数量的图像,并不局限于30帧。因为对于模型建立来说,没有一个明确的范围,样本越多,模型会越准确,同时模型也会越复杂,本实施方式综合考虑模型的准确度和复杂度,选择30帧。
当完成步骤S1后,进行步骤S2,在步骤S2中提取眼睛图像及特征。下面结合图3~图4来说明本实施方式中眼睛图像及特征的提取方法。
如图3所示,本实施方式提取眼睛图像及特征包括:
步骤S20,人脸定位和内外眼角点检测。比如通过经典的ViolaandJones方法进行人脸定位和内外眼角点的检测,以左眼为例如图4中(a)所示。
步骤S21,眼睛图像对齐,即根据眼角位置裁剪并对齐眼睛区域。具体对齐的方法为:首先通过统计采集到的人脸区域,定义一个64×32大小的眼睛图像标准模板,并设置内外两个眼角的位置分别为(54,20)和(9,20),通过将人脸区域根据外眼角的位置进行尺度和旋转的变换,得到对齐的眼睛图像,如图4中(b)所示。
进一步地,以左眼为例,尺度和旋转变换的具体步骤为:1)连接内外眼角,将该线段通过旋转变换使得内眼角和外眼角在同一水平线上,同时对人脸区域的其他像素也进行相同的旋转变换;2)将处于同一水平位置上的左右眼角通过尺度变化使之与根据标准模板上定义的内外眼角位置重合,与此同时对人脸区域的其他像素也做相同的尺度变换;3)最后根据定义的眼睛图像标准模板的大小截取经过旋转和尺度变换的人脸区域,得到对齐的眼睛图像。
需要说明的是,上述眼睛图像标准模板是适应于所有人的,只要定位到左眼的内外眼角位置,就可以通过旋转和尺度变换将检测到的内外眼角和标准模板上定义的内外眼角位置保持一致,从而得到对齐的眼睛图像。眼睛图像对齐是人脸识别的一个重要的预处理步骤,在本实施方式中在建立模型之前进行眼睛图像对齐,是为了处理采集图像中出现的微小头部运动。
步骤S22,获取眼睛图像的特征。在特征提取部分,为了充分利用真实人脸和欺骗人脸存在的微纹理差异,将眼睛图像进一步划分为r×c个子区域,本实施方式采用4×2,如图4中(c)所示,对每一个子区域提取双直方图局部二值模式(DualHistogramLocalBinaryPattern,DH-LBP)特征(DH-LBP是局部二值模式(LBP,LocalBinaryPattern)直方图的改进,大大降低了特征维数的同时保留了LBP良好的分辨能力),将所有子区域的DH-LBP特征串联,形成眼睛图像的特征,如图4中(d)所示,其为128维。
可以理解的是,一方面所述眼睛图像特征可以用于表示用户的视线方向;另一方面由于印刷、显示屏反光等问题,真实人脸和欺骗人脸存在明显的微纹理区别,因此采用局部纹理特征能够很好的区分真实人脸和欺骗人脸。.
当完成步骤S2后,进行步骤S3,在步骤S3中进行模型的建立和求解。下面详细描述视线估计模型的建立和求解过程。
通过步骤S1和S2得到这样的数据集其中,xi∈Rn(本实施方式中n=128,其与眼睛图像特征的维数有关)是样本的眼睛图像特征,yi=(px,i,py,i)∈R2是对应视点的二维坐标。本实施方式中通过如下的二维回归模型来建立眼睛图像特征与对应的视点坐标之间的映射关系:
y=wTx+b,
w=(w1,w2)∈Rn×2,b=(b1,b2)∈R2(1)
其中w,b是待求的模型参数
并定义对应的损失函数为:
其中是对应的预测值,一般来说,式(1)可通过最小二乘法求得。然而,结合该问题的实际情况,最小二乘法具有以下不足之处:1)非高清摄像头下的视线估计问题是一个复杂的非线性问题,尤其是对于跨度较大的9个标定点;2)最小二乘法对于拟合直线之外的点较敏感;3)最小二乘法仅对经验风险最小化,推广能力不强。基于以上几点,本实施方式决定采用具有较强鲁棒性的支持向量回归(SVR,SupportVectorRegression)法求解该问题。为了应用SVR,将式(1)简化为两个一维回归模型:
即,将x坐标点和y坐标点分别考虑,为使拟合函数尽可能的平滑,式(1)进一步转化为以下两个优化问题的求解:
subjectto|px,i-w1 Tx-b1|≤ε1
和
subjectto|py,i-w2 Tx-b2|≤ε2
其中ε1,ε2是预测值和实际值之间可允许的最大偏差。本实施方式中采用libsvm工具箱求解(4)和(5)得到和即对于测试样本z,其视线位置的x和y坐标值分别预测为fx(z),fy(z):
其中,xi,yi分别为支持向量,n1,n2是支持向量数。相比于线性回归,非线性回归能够更加有效的对数据建模,将线性转化为非线性常用的方法是核技巧。通过定义核函数,式(1)的解为:
本实施方式采用径向基核函数进行求解,对于测试数据z,通过(7)式得到预测的视线位置
根据上述步骤S1~S3可以建立的视线估计模型(7)侧重于预测视线的变化,而不是侧重估计的准确度,并且本实施方式提出的视线估计模型只需在自然光下配置一个分辨率为640×480像素的USB摄像头就能很好的检测到视线的变化。
可以理解的是,虽然本实施方式在步骤S3中采用非线性回归来建立和求解视线估计模型,但是实际上也可以采用其他的回归方法,例如偏最小二乘回归等。
进一步地,本实施方式的视线估计模型和现有的视线估计模型最大的不同在于由于应用的场合不同,因此侧重点也不同。现有的视线估计模型主要应用于人机交互,因此注重的是视线估计的准确度。现有的视线估计模型要么需要多个标定点,要么需要高清摄像头,有的甚至需要多个摄像头。而根据本发明的应用场合---活体判断,本实施方式提出的视线估计模型侧重于视线的变化,而不是视线估计的准确度,并且本实施方式提出的视线估计模型只需在自然光下配置一个640×480像素大小的USB摄像头就能很好的检测到视线的变化。
如前所述,在建立上述视线估计模型后,可以利用该模型来进行活体判断。下面结合图5和图6来说明本发明的人脸活体判断方法。
图5是本发明一实施方式的人脸活体判断方法流程图;图6是本发明一实施方式视线词典构建示意图。如图5所示,本实施方式的人脸活体判断方法包括下述步骤:
步骤S100,获取人脸图像。在步骤S100,通过诸如usb摄像头等图像获取单元获取一定数量人脸图像,比如采集10秒,获得100帧图像。
步骤S200,获取眼睛图像及眼睛图像的特征。在步骤200中获取每个人脸图像的眼睛图像以及该眼睛图像的特征,比如获取前述100帧人脸图像的每个图像的眼睛图像以及眼睛图像特征。眼睛图像及眼睛图像的特征获取方法同前文所述一样,在此不再赘述。
步骤S300,进行视线预测,即根据获取的眼睛图像的特征以及视线估计模型进行视线预测获得对应数量视线位置。具体地,在步骤S300中,根据视线估计模型式(7)来预测一段时间内用户的视线位置序列。比如,对于某一用户,假设当前时间段内采集到M帧图像,通过对图像序列进行眼睛图像及特征的获取,得到预测到的M个视线位置
步骤S400,视线量化及统计,即,根据视线词典对所述对应数量视线位置进行量化,建立视线直方图。
词袋模型(BagofWords,BOW)通常应用在信息检索领域中,通过统计每个词汇出现的频次形成直方图来对文档进行表示。在本实施方式中通过将文档中的词汇扩展到图像中的``视觉词汇″将词袋模型延伸为视觉词袋模型,此处要统计的是视线方向,因此这里的``视觉词汇″就具体化为``视线方向″。本发明中称之为``视线词袋模型″,并将视线词典中的词条称为”视线词条”。类似于词袋模型,视线词袋模型的构建主要分为2步:视线词典(codebook)的构建和视线直方图的生成。本发明中视线词条是通过将用户视线范围进行网格划分来获取的,假设用户的视线范围为m×n大小,这里m,n是以像素为单位,将其均匀划分为r×c大小的网格,则网格上的(r+1)×(c+1)个网格点的集合构成了视线词典。例如,如图6所示,当将本实施方式的人脸活体判断方法应用于分辨率为640×480像素大小的窗口中时,首先确定用户的视线范围(假设为600×400像素大小的矩形区域(边缘区域不考虑)),然后将600×400划分为2×2(这里r和c的取值可以不是2)个子区域,则9个红色点构成了视线词典。优选地,本实施方式视线词典的构造是以建立视线估计模型时的9个视点作为视线词条,即{(88,83),(552,83),(1016,83),(88,440),(552,440),(1016,440),(88,797),(552,797),(1016,797)}。
当构建完视线词典后,将预测到的视线位置序列根据视线词典进行量化。比如,找到与每一个预测位置距离最近的视线词条并投票(本实施方式采用欧式距离),统计每一个位置词条的票数形成直方图并进行归一化,形成视线直方图。
步骤500,活体判断,即,根据视线直方图获得信息熵并进行活体判断。
具体地,对于归一化的视线直方图H={p1,…,p9}(满足根据熵的定义求得熵值
如果 则有
表明视线方向被量化到了l个不同的视线词条内,此时对应的熵值大于0。
如果仅存在某一则有
表明视线方向只被量化到一个视线词条内,此时对应的熵值等于0。即在量化的条件下,视线方向发生变化时,熵值大于0;不发生变化时,熵值等于0。
综上,本实施方式中设定阈值为0,并设定活体判断的条件为:如果求得(8)式熵值entropy>0,则判定为真实人脸,否则为欺骗人脸。
本发明除了提供一种人脸活体判断方法外,还提供一种活体判断系统,用于在人脸识别中区分真实人脸和欺骗人脸。下面结合图7和图8来说明本发明的活体判断系统。
图7是本发明一实施方式的活体判断系统的结构示意图;图8是图7所示活体判断系统的特征提取单元的详细结构示意图。
如图7所示,本实施方式的活体判断系统包括图像采集单元100、特征提取单元200、视线估计单元300、视线统计单元400和活体判断单元500。
其中,图像采集单元100,比如为640×480像素的摄像头,用于采集一定数量的人脸图像。
特征提取单元200用于获取每个人脸图像的眼睛图像以及该眼睛图像的特征。特征提取单元200包括定位检测模块201、眼睛图像对齐模块202和特征提取模块203。定位检测模块201用于进行人脸定位和内外眼角点检测,比如通过经典的ViolaandJones方法进行人脸定位和内外眼角点的检测,以左眼为例如图4中(a)所示。眼睛图像对齐模块202用于根据眼角位置裁剪并对齐眼睛区域从而得到对齐的眼睛图像,其具体执行下述操作:通过统计采集到的人脸图像,定义眼睛图像标准模板,并设置内眼角和外眼角位置,和将所述人脸区域根据外眼角的位置进行尺度和旋转的变换获得对齐的眼睛图像,详细过程如前所述,在此不再赘述。特征提取模块203根据所述对齐的眼睛图像获取眼睛图像的特征,其具体执行下述操作:将所述眼睛图像划分为r*c个子区域,并对每个子区域提取双直方图局部二值模式特征,将所有子区域的双直方图局部二值模式特征串联,形成所述眼睛图像的特征。
视线估计单元300用于根据获取的眼睛图像的特征以及视线估计模型进行视线预测获得对应数量视线位置。即,根据视线估计模型式(7)来预测一段时间内用户的视线位置序列。比如,对于某一用户,假设当前时间段内采集到M帧图像,通过对图像序列进行眼睛图像及特征的获取,得到预测到的M个视线位置
视线统计单元400根据视线词典对所述对应数量视线位置进行量化,建立视线直方图。视线统计以及量化的过程如前所述,在此不再赘述。
活体判断单元500根据视线直方图获得信息熵并进行活体,其中
如果熵值大于0,则判定为真实人脸,否则判定为欺骗人脸。
以上实施方式仅仅是为了说明本发明的原理而采用的示例性实施方式,然而本发明并不局限于此。对于本领域内的普通技术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变型和改进。这些变型和改进也视为本发明的保护区间。
Claims (12)
1.一种人脸活体判断方法,用于在人脸识别中区分真实人脸和欺骗人脸,其特征在于,包括:
获取一定数量的人脸图像的步骤;
获取每个人脸图像的眼睛图像以及该眼睛图像的特征的步骤;
根据获取的眼睛图像的特征以及视线估计模型进行视线预测获得对应数量视线位置的步骤;
根据视线词典对所述对应数量视线位置进行量化,建立视线直方图的步骤;和
根据视线直方图获得信息熵并进行活体判断的步骤,其中
如果熵值大于0,则判定为真实人脸,否则判定为欺骗人脸。
2.如权利要求1所述的人脸活体判断方法,其特征在于,所述获取每个人脸图像的眼睛图像以及该眼睛图像的特征的步骤包括:
进行人脸定位和内外眼角点检测的步骤;
根据眼角位置裁剪并对齐眼睛区域从而得到对齐的眼睛图像的步骤;和
根据所述对齐的眼睛图像获取眼睛图像的特征的步骤。
3.如权利要求2所述的人脸活体判断方法,其特征在于,所述根据眼角位置裁剪并对齐眼睛区域从而得到对齐的眼睛图像的步骤包括:
通过统计采集到的人脸图像,定义眼睛图像标准模板,并设置内眼角和外眼角位置的步骤;和
将所述人脸区域根据外眼角的位置进行尺度和旋转的变换获得对齐的眼睛图像的步骤。
4.如权利要求2所述的人脸活体判断方法,其特征在于,根据所述对齐的眼睛图像获取眼睛图像的特征的步骤具体为:
将所述眼睛图像划分为r×c个子区域,并对每个子区域提取双直方图局部二值模式特征,将所有子区域的双直方图局部二值模式特征串联,形成所述眼睛图像的特征。
5.如权利要求1-4任意一项所述的人脸活体判断方法,其特征在于,还包括:
建立视线估计模型的步骤,该步骤包括:
采集数据的步骤,所述数据为用户依次观测设定数量的视点时的人脸图像;
获取每个人脸图像的眼睛图像以及该眼睛图像的特征的步骤;和
根据所述眼睛图像的特征以及对应视点的坐标,建立视线估计模型并求解。
6.如权利要求5所述的人脸活体判断方法,其特征在于,所述视线估计模型为:
其中,所述视线位置xi∈Rn是眼睛图像的特征,yi=(px,i,py,i)∈R2是对应的视点二维坐标。
7.一种活体判断系统,用于在人脸识别中区分真实人脸和欺骗人脸,其特征在于,包括:
图像采集单元,其用于采集一定数量的人脸图像;
特征提取单元,其用于获取每个人脸图像的眼睛图像以及该眼睛图像的特征;
视线估计单元,其根据获取的眼睛图像的特征以及视线估计模型进行视线预测获得对应数量视线位置;
视线统计单元,其根据视线词典对所述对应数量视线位置进行量化,建立视线直方图,和
活体判断单元,其根据视线直方图获得信息熵并进行活体,其中
如果熵值大于0,则判定为真实人脸,否则判定为欺骗人脸。
8.如权利要求7所述的活体判断系统,其特征在于,所述特征提取单元包括:
定位检测模块,其用于进行人脸定位和内外眼角点检测;
眼睛图像对齐模块,其用于根据眼角位置裁剪并对齐眼睛区域从而得到对齐的眼睛图像;和
特征提取模块,其根据所述对齐的眼睛图像获取眼睛图像的特征。
9.如权利要求8所述的活体判断系统,其特征在于,所述眼睛图像对齐模块具体执行下述操作:
通过统计采集到的人脸图像,定义眼睛图像标准模板,并设置内眼角和外眼角位置;和
将所述人脸区域根据外眼角的位置进行尺度和旋转的变换获得对齐的眼睛图像。
10.如权利要求8所述的活体判断系统,其特征在于,所述特征提取模块具体执行下述操作:
将所述眼睛图像划分为r×c个子区域,并对每个子区域提取双直方图局部二值模式特征,将所有子区域的双直方图局部二值模式特征串联,形成所述眼睛图像的特征。
11.如权利要求7所述的活体判断系统,其特征在于,所述图像采集单元为640×480像素的摄像头。
12.如权利要求7-11所述的活体判断系统,其特征在于,所述视线估计模型为:
其中,所述视线位置xi∈Rn是眼睛图像的特征,yi=(px,i,py,i)∈R2是对应的视点二维坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410327039.4A CN105243386B (zh) | 2014-07-10 | 2014-07-10 | 人脸活体判断方法以及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410327039.4A CN105243386B (zh) | 2014-07-10 | 2014-07-10 | 人脸活体判断方法以及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105243386A true CN105243386A (zh) | 2016-01-13 |
CN105243386B CN105243386B (zh) | 2019-02-05 |
Family
ID=55041027
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410327039.4A Active CN105243386B (zh) | 2014-07-10 | 2014-07-10 | 人脸活体判断方法以及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105243386B (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106169075A (zh) * | 2016-07-11 | 2016-11-30 | 北京小米移动软件有限公司 | 身份验证方法及装置 |
CN106203373A (zh) * | 2016-07-19 | 2016-12-07 | 中山大学 | 一种基于深度视觉词袋模型的人脸活体检测方法 |
CN106203372A (zh) * | 2016-07-19 | 2016-12-07 | 奇酷互联网络科技(深圳)有限公司 | 基于眼睛的活体检测方法、装置和终端设备 |
CN106682578A (zh) * | 2016-11-21 | 2017-05-17 | 北京交通大学 | 基于眨眼检测的人脸识别方法 |
CN106778518A (zh) * | 2016-11-24 | 2017-05-31 | 汉王科技股份有限公司 | 一种人脸活体检测方法及装置 |
CN107330914A (zh) * | 2017-06-02 | 2017-11-07 | 广州视源电子科技股份有限公司 | 人脸部位运动检测方法和装置及活体识别方法和系统 |
CN107992811A (zh) * | 2017-11-27 | 2018-05-04 | 北京小米移动软件有限公司 | 人脸识别方法及装置 |
CN108229376A (zh) * | 2017-12-29 | 2018-06-29 | 百度在线网络技术(北京)有限公司 | 用于检测眨眼的方法及装置 |
CN108445505A (zh) * | 2018-03-29 | 2018-08-24 | 南京航空航天大学 | 线环境下基于激光雷达的特征显著性检测方法 |
CN108549887A (zh) * | 2018-07-23 | 2018-09-18 | 北京智芯原动科技有限公司 | 一种活体人脸检测方法及装置 |
CN108875468A (zh) * | 2017-06-12 | 2018-11-23 | 北京旷视科技有限公司 | 活体检测方法、活体检测系统以及存储介质 |
CN109190522A (zh) * | 2018-08-17 | 2019-01-11 | 浙江捷尚视觉科技股份有限公司 | 一种基于红外相机的活体检测方法 |
CN110705569A (zh) * | 2019-09-18 | 2020-01-17 | 西安交通大学 | 一种基于纹理特征的图像局部特征描述子提取方法 |
CN110705507A (zh) * | 2016-06-30 | 2020-01-17 | 北京七鑫易维信息技术有限公司 | 一种身份识别方法及装置 |
CN110738072A (zh) * | 2018-07-18 | 2020-01-31 | 浙江宇视科技有限公司 | 活体判断方法及装置 |
CN110929705A (zh) * | 2020-02-17 | 2020-03-27 | 京东数字科技控股有限公司 | 活体检测方法和装置、身份认证方法和系统、存储介质 |
CN111582238A (zh) * | 2020-05-28 | 2020-08-25 | 上海依图网络科技有限公司 | 一种应用于人脸遮挡场景的活体检测方法及装置 |
CN111898553A (zh) * | 2020-07-31 | 2020-11-06 | 成都新潮传媒集团有限公司 | 一种判别虚像人员的方法、装置及计算机设备 |
CN112633217A (zh) * | 2020-12-30 | 2021-04-09 | 苏州金瑞阳信息科技有限责任公司 | 基于三维眼球模型计算视线方向的人脸识别活体检测方法 |
CN113869219A (zh) * | 2021-09-29 | 2021-12-31 | 平安银行股份有限公司 | 人脸活体检测方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005277567A (ja) * | 2004-03-23 | 2005-10-06 | Olympus Corp | 画像記録装置 |
US7027617B1 (en) * | 1999-01-19 | 2006-04-11 | Humanscan Gmbh | Method and system for preventing fraud in the biometric detection of persons |
CN101710383A (zh) * | 2009-10-26 | 2010-05-19 | 北京中星微电子有限公司 | 一种身份认证的方法及认证装置 |
CN103106397A (zh) * | 2013-01-19 | 2013-05-15 | 华南理工大学 | 基于亮瞳效应的人脸活体检测方法 |
-
2014
- 2014-07-10 CN CN201410327039.4A patent/CN105243386B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7027617B1 (en) * | 1999-01-19 | 2006-04-11 | Humanscan Gmbh | Method and system for preventing fraud in the biometric detection of persons |
JP2005277567A (ja) * | 2004-03-23 | 2005-10-06 | Olympus Corp | 画像記録装置 |
CN101710383A (zh) * | 2009-10-26 | 2010-05-19 | 北京中星微电子有限公司 | 一种身份认证的方法及认证装置 |
CN103106397A (zh) * | 2013-01-19 | 2013-05-15 | 华南理工大学 | 基于亮瞳效应的人脸活体检测方法 |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110705507B (zh) * | 2016-06-30 | 2022-07-08 | 北京七鑫易维信息技术有限公司 | 一种身份识别方法及装置 |
CN110705507A (zh) * | 2016-06-30 | 2020-01-17 | 北京七鑫易维信息技术有限公司 | 一种身份识别方法及装置 |
CN106169075A (zh) * | 2016-07-11 | 2016-11-30 | 北京小米移动软件有限公司 | 身份验证方法及装置 |
CN106203373B (zh) * | 2016-07-19 | 2019-04-16 | 中山大学 | 一种基于深度视觉词袋模型的人脸活体检测方法 |
CN106203373A (zh) * | 2016-07-19 | 2016-12-07 | 中山大学 | 一种基于深度视觉词袋模型的人脸活体检测方法 |
CN106203372A (zh) * | 2016-07-19 | 2016-12-07 | 奇酷互联网络科技(深圳)有限公司 | 基于眼睛的活体检测方法、装置和终端设备 |
CN106682578A (zh) * | 2016-11-21 | 2017-05-17 | 北京交通大学 | 基于眨眼检测的人脸识别方法 |
CN106682578B (zh) * | 2016-11-21 | 2020-05-05 | 北京交通大学 | 基于眨眼检测的弱光人脸识别方法 |
CN106778518A (zh) * | 2016-11-24 | 2017-05-31 | 汉王科技股份有限公司 | 一种人脸活体检测方法及装置 |
CN107330914A (zh) * | 2017-06-02 | 2017-11-07 | 广州视源电子科技股份有限公司 | 人脸部位运动检测方法和装置及活体识别方法和系统 |
CN108875468A (zh) * | 2017-06-12 | 2018-11-23 | 北京旷视科技有限公司 | 活体检测方法、活体检测系统以及存储介质 |
CN107992811A (zh) * | 2017-11-27 | 2018-05-04 | 北京小米移动软件有限公司 | 人脸识别方法及装置 |
CN108229376A (zh) * | 2017-12-29 | 2018-06-29 | 百度在线网络技术(北京)有限公司 | 用于检测眨眼的方法及装置 |
CN108229376B (zh) * | 2017-12-29 | 2022-06-03 | 百度在线网络技术(北京)有限公司 | 用于检测眨眼的方法及装置 |
CN108445505A (zh) * | 2018-03-29 | 2018-08-24 | 南京航空航天大学 | 线环境下基于激光雷达的特征显著性检测方法 |
CN110738072A (zh) * | 2018-07-18 | 2020-01-31 | 浙江宇视科技有限公司 | 活体判断方法及装置 |
CN108549887A (zh) * | 2018-07-23 | 2018-09-18 | 北京智芯原动科技有限公司 | 一种活体人脸检测方法及装置 |
CN109190522B (zh) * | 2018-08-17 | 2021-05-07 | 浙江捷尚视觉科技股份有限公司 | 一种基于红外相机的活体检测方法 |
CN109190522A (zh) * | 2018-08-17 | 2019-01-11 | 浙江捷尚视觉科技股份有限公司 | 一种基于红外相机的活体检测方法 |
CN110705569A (zh) * | 2019-09-18 | 2020-01-17 | 西安交通大学 | 一种基于纹理特征的图像局部特征描述子提取方法 |
CN110929705A (zh) * | 2020-02-17 | 2020-03-27 | 京东数字科技控股有限公司 | 活体检测方法和装置、身份认证方法和系统、存储介质 |
CN111582238A (zh) * | 2020-05-28 | 2020-08-25 | 上海依图网络科技有限公司 | 一种应用于人脸遮挡场景的活体检测方法及装置 |
CN111898553A (zh) * | 2020-07-31 | 2020-11-06 | 成都新潮传媒集团有限公司 | 一种判别虚像人员的方法、装置及计算机设备 |
CN111898553B (zh) * | 2020-07-31 | 2022-08-09 | 成都新潮传媒集团有限公司 | 一种判别虚像人员的方法、装置及计算机设备 |
CN112633217A (zh) * | 2020-12-30 | 2021-04-09 | 苏州金瑞阳信息科技有限责任公司 | 基于三维眼球模型计算视线方向的人脸识别活体检测方法 |
CN113869219A (zh) * | 2021-09-29 | 2021-12-31 | 平安银行股份有限公司 | 人脸活体检测方法、装置、设备及存储介质 |
CN113869219B (zh) * | 2021-09-29 | 2024-05-21 | 平安银行股份有限公司 | 人脸活体检测方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN105243386B (zh) | 2019-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105243386A (zh) | 人脸活体判断方法以及系统 | |
KR101977174B1 (ko) | 영상 분석 방법, 장치 및 컴퓨터 프로그램 | |
CN108549854B (zh) | 一种人脸活体检测方法 | |
CN104732601B (zh) | 一种基于人脸识别技术的高识别率自动考勤装置及方法 | |
KR100974293B1 (ko) | 얼굴 인식 방법 및 시스템 | |
RU2431190C2 (ru) | Способ и устройство распознавания рельефности лица | |
CN103902962B (zh) | 一种遮挡或光源自适应人脸识别方法和装置 | |
CN104123543B (zh) | 一种基于人脸识别的眼球运动识别方法 | |
CN202257856U (zh) | 驾驶员疲劳驾驶监控装置 | |
CN112396658B (zh) | 一种基于视频的室内人员定位方法及定位系统 | |
CN109190475B (zh) | 一种人脸识别网络与行人再识别网络协同训练方法 | |
CN105426827A (zh) | 活体验证方法、装置和系统 | |
CN106384106A (zh) | 一种基于三维扫描的反欺诈人脸识别系统 | |
CN109298785A (zh) | 一种监测设备的人机联控系统及方法 | |
CN109583304A (zh) | 一种基于结构光模组的快速3d人脸点云生成方法及装置 | |
CN102262727A (zh) | 客户采集终端人脸图像质量实时监控方法 | |
CN105138980A (zh) | 基于身份证件信息和人脸识别的身份验证方法及系统 | |
CN101339603A (zh) | 一种从视频流中选取到了质量合格的虹膜图像的方法 | |
CN101201893A (zh) | 一种基于灰度信息的虹膜识别预处理方法 | |
CN101251894A (zh) | 基于红外热成像的步态特征提取方法和步态识别方法 | |
CN104143086A (zh) | 人像比对在移动终端操作系统上的应用技术 | |
CN110555931A (zh) | 一种基于深度学习识别的人脸检测与门禁系统装置 | |
CN110414381A (zh) | 追踪式人脸识别系统 | |
CN111062303A (zh) | 图像处理方法、系统及计算机存储介质 | |
KR101640014B1 (ko) | 허위 안면 이미지 분류가 가능한 홍채 인식 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |