CN112232204B - 基于红外图像的活体检测方法 - Google Patents
基于红外图像的活体检测方法 Download PDFInfo
- Publication number
- CN112232204B CN112232204B CN202011106811.1A CN202011106811A CN112232204B CN 112232204 B CN112232204 B CN 112232204B CN 202011106811 A CN202011106811 A CN 202011106811A CN 112232204 B CN112232204 B CN 112232204B
- Authority
- CN
- China
- Prior art keywords
- face
- living body
- detector
- data
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明属于人脸识别技术领域,具体涉及一种实时多功能人脸检测方法。基于红外图像的活体检测方法,包括:采集红外图片并进行预处理操作;将图片放入检测器中进行预测,得到人脸框预测值、人脸关键点和口罩识别结果;将人脸框预测值和人脸关键点进行解码操作;采用阈值为0.4的非极大值抑制算法消除重叠检测框,得到最终的人脸检测框、人脸关键点和口罩识别结果;根据人脸关键点提取两只眼睛坐标x和y,将x和y分别向四个方向延伸预设像素后得到眼部图像;采用活体识别神经网络判断眼部图像是否为活体,得到判断结果。本发明能在移动端只有CPU的情况下达到实时检测效果,准确检测出眼部位置。
Description
技术领域
本发明属于人脸识别技术领域,具体涉及一种实时多功能人脸检测方法。
背景技术
人脸识别系统以人脸识别技术为核心,是一项新兴的生物识别技术,是当今国际科技领域攻关的高精尖技术。它广泛采用区域特征分析方法,融合了计算机图像处理技术与生物统计学原理于一体,利用计算机图像处理技术从视频中提取人像特征点,利用生物统计学的原理进行分析建立数学模型,具有广阔的发展前景。人脸检测是自动人脸识别系统中的一个关键环节。但是由于人脸具有相当复杂的细节变化,不同的外貌如脸形、肤色等,不同的表情如眼、嘴的开与闭等;口罩遮挡等,这些内在因素及外在因素的变化使得人脸检测成为人脸识别系统中一个复杂的具有挑战性的模式检测问题。
尽管人们已经对基于卷积神经网络的人脸检测算法进行了广泛的研究,但是对于移动设备上的人脸检测算法来说,无法在移动端达到实时效果,也无法在只有CPU的情况下达到实时检测效果。
另外,现有人脸检测时,通常检测功能单一,无法准确检测出眼部位置,检测动态活体时的步骤繁多,容易受自然光照等外界环境影响,鲁棒性不够。
发明内容
本发明针对现有的人脸检测无法准确检测除眼部位置,动态活体检测的步骤繁多的技术问题,目的在于提供一种基于红外图像的活体检测方法。
基于红外图像的活体检测方法,包括:
采集红外图片并对所述图片进行预处理操作;
将所述图片放入预设的检测器中进行预测,通过所述检测器的主干网络中四个不同卷积层得到的特征与多个尺寸的锚点结合,进行人脸检测、人脸关键点检测和口罩识别,得到人脸框预测值、人脸关键点和口罩识别结果;
将所述人脸框预测值进行解码操作,转换为边界框的真实位置,将所述人脸关键点进行解码操作,转换为关键点的真实位置;
采用阈值为0.4的非极大值抑制算法消除重叠检测框,得到最终的人脸检测框、人脸关键点和口罩识别结果,包括检测框左上角坐标、右下角坐标、两只眼睛坐标、鼻子坐标、一对嘴角坐标和是否戴口罩置信度的信息;
根据所述人脸关键点提取两只眼睛坐标x和y,将x和y分别向四个方向延伸预设像素后得到眼部图像;
采用预设的活体识别神经网络判断所述眼部图像是否为活体,得到判断结果。
可选的,所述将所述图片放入预设的检测器中进行预测之前,还包括:
向所述检测器加载预设的预训练网络参数,根据预设的锚点的尺寸及长宽比例,生成默认锚点;
通过预设的数据集对所述检测器进行训练,得到训练后的检测器;
所述检测器包括主干网络、预测层和多任务损失层。
可选的,所述通过预设的数据集对所述检测器进行训练,得到训练后的检测器,包括:
采集包括未遮挡数据和遮挡数据作为数据集,将所述数据集中的BGR图片转换为YUV格式,只保存Y通道的数据后,进行数据增强,得到增强后的数据集;
采用动量为0.9,权重衰减因子为0.0005的随机优化算法进行网络训练,所述随机优化算法采用难样本挖掘的方式减少正负样本之间的不平衡,在训练的前100轮,初始化学习率设置为10-3,在之后的50轮和100轮各降低10倍,在训练期间,首先将每个预测值与最佳的Jaccard重叠锚点进行匹配,之后将锚点匹配到具有高于0.35阈值的Jaccard重叠人脸。
可选的,所述未遮挡数据为未佩戴口罩时的人脸图片,所述遮挡数据为佩戴口罩时的人脸图片,所述遮挡数据大于所述未遮挡数据。
可选的,所述进行数据增强,包括:
通过对所述数据集中的图片采用颜色失真、增加亮度对比、随机裁剪、水平翻转和变换通道中的至少一种或多种方式的组合增加数据以防止模型过拟合。
可选的,所述将图片放入预设的检测器中进行预测,通过所述检测器的主干网络中四个不同卷积层得到的特征与多个尺寸的锚点结合,进行人脸检测、人脸关键点检测和口罩识别,得到人脸框预测值、人脸关键点和口罩识别结果,包括:
将图片放入训练后的所述检测器中进行预测,预测时将所述主干网络中的第8、11、13和15个卷积层中的特征分别输入到各个预测层进行人脸框、人脸关键点定位和口罩识别操作;
对于每个锚点,使用相对其坐标的4个偏移量以及N个用于分类的分数进行表示,N=2;在检测器训练时针对每个锚点,最小化式多任务损失函数:
其中Lobj为交叉熵损失函数检测锚点是否包含目标分类,pi为锚点有目标的概率,如果锚点包含目标,则否则为0;Lbox采用smoth-L1损失函数用于人脸锚点定位,ti={tx,ty,tw,th}i为预测框的坐标偏移量,为正样本锚点的坐标偏移量;Llandmark采用smoth-L1损失函数用于人脸关键点定位,li={lx1,ly1,lx2,ly2,...,lx5,ly5}i为预测的关键点偏移量,为正样本关键点坐标偏移量,若样本为戴口罩li={lx1,ly1,lx2,ly2}i,其中lx1,ly1和分别代表左眼预测关键点坐标偏移量和正样本关键点偏移量,lx2,ly2和分别代表右眼预测关键点坐标偏移量和正样本关键点偏移量;λ1和λ2分别为人脸框和关键点损失函数的权重系数。
可选的,采用10到256像素的锚点来匹配相应的有效感受野的最小尺寸,每个用于检测特征的锚点尺寸分别设为(10,16,24)、(32,48)、(64,96)和(128,192,256)。
可选的,所述将所述人脸框预测值进行解码操作,转换为边界框的真实位置,将所述人脸关键点进行解码操作,转换为关键点的真实位置,包括:
将所述检测器得到的人脸框预测值l=(lcx,lcy,lw,lh)进行解码操作,转化为边界框的真实位置b=(bcx,bcy,bw,bh):
bcx=lcxdw+dcx,bcy=lcydh+dcy;
bw=dwexp(lw),bh=dhexp(lh);
其中,d=(dcx,dcy,dw,dh)表示生成的默认锚点。
可选的,所述根据所述人脸关键点提取两只眼睛坐标x和y,将x和y分别向四个方向延伸预设像素后得到眼部图像,包括:
根据所述人脸关键点提取两只眼睛坐标x和y,将x和y分别向四个方向延伸32个像素后得到64*64的眼部图像。
可选的,所述采用预设的活体识别神经网络判断所述眼部图像是否为活体,得到判断结果,包括:
所述活体识别神经网络采用mobilenet轻量化神经网络提取活体特征,所述活体识别神经网络使用交叉熵损失函数作为损失函数。
本发明的积极进步效果在于:本发明采用基于红外图像的活体检测方法,具有如下显著优点:
1、能在移动端只有CPU的情况下达到实时检测效果;
2、以精细化检测亮瞳效应的方式,提高活体准确率;
3、准确检测出眼部位置;
4、鲁棒性强,受外界影响较小。
附图说明
图1为本发明的一种流程示意图;
图2为本发明检测器的一种网络结构图;
图3为本发明攻击图像结果图;
图4为本发明真人图像结果图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合具体图示进一步阐述本发明。
参照图1,基于红外图像的活体检测方法,包括:
S1,输入图片,通过红外相机采集红外图片,并针对图片进行预处理操作。
本步骤中可以从红外相机端直接获取红外图片,或通过输入接口输入红外图片。对图片进行预处理操作包括调整图像大小、标准化。
S2,通过检测器进行预测:将图片放入预设的检测器中进行预测,通过检测器的主干网络中四个不同卷积层得到的特征与多个尺寸的锚点结合,进行人脸检测、人脸关键点检测和口罩识别,得到人脸框预测值、人脸关键点和口罩识别结果。
本步骤在将图片放入预设的检测器中进行预测之前,还包括:
向检测器加载预设的预训练网络参数,根据预设的锚点的尺寸及长宽比例,生成默认锚点,该默认锚点即为:d=(dcx,dcy,dw,dh)。
其中,参照图2,检测器包括主干网络、预测层和多任务损失层。主干网络中包含有15个卷积层,4个预测层,1个多任务损失层。15个卷积层中包含一个卷积模块1、十三个卷积模块2、一个卷积模块3。卷积模块1由卷积、归一化及激活层组成。卷积模块2由两组模块组成,分别为组卷积、归一化及激活层组成的第一模块,卷积、归一化及激活层组成的第二模块。卷积模块3由两组模块组成,分别为组卷积、归一化及激活层组成的第一模块,只含卷积的第二模块。本步骤将主干网络中的第8、11、13和15个卷积层中的特征分别输入到各个预测层进行人脸框、人脸关键点定位和口罩识别操作,各个预测层输入多任务损失层,以实现多个检测结果的拟合。
通过预设的数据集对检测器进行训练,得到训练后的检测器。检测器的算法优选采用Pytorch开源深度学习库实现。在训练时,包括如下过程:
S201,数据采集:采集包括未遮挡数据和遮挡数据作为数据集。
未遮挡数据为未佩戴口罩时的人脸图片,遮挡数据为佩戴口罩时的人脸图片,遮挡数据大于未遮挡数据,优选大部分为戴口罩数据集。数据采集时,可以采用人工加工过的WiderFace未遮挡数据和MAFA遮挡数据。
S202,数据处理及增强:将数据集中的BGR图片转换为YUV格式,只保存Y通道的数据后,进行数据增强,得到增强后的数据集。
在进行数据增强时包括通过对数据集中的图片采用颜色失真、增加亮度对比、随机裁剪、水平翻转和变换通道中的至少一种或多种方式的组合增加数据以防止模型过拟合。
其中,在转成为YUV格式后只保存Y通道的数据,这种使用单通道数据训练的方式可以减少模型参数量,提升模型检测速度。通过直接训练单通道Y格式的图片,也避免移动端需要图片格式转换,节约时间,使得模型在移动端只有CPU的情况下可以达到超实时检测的效果。
增强亮度对比采用的策略为降低目标框内的亮度,增加目标框外的亮度实现。上述数据增强的多种组合方式,使得模型在光照情况下可以更加鲁棒。
S203,训练:采用动量为0.9,权重衰减因子为0.0005的随机优化算法进行网络训练,随机优化算法采用难样本挖掘的方式减少正负样本之间的不平衡,在训练的前100轮,初始化学习率设置为10-3,在之后的50轮和100轮各降低10倍,在训练期间,首先将每个预测值与最佳的Jaccard重叠锚点进行匹配,之后将锚点匹配到具有高于0.35阈值的Jaccard重叠人脸。
通过上述设计后,得到训练后的检测器,则可进行图片的预测。
预测时,将主干网络中的第8、11、13和15个卷积层中的特征分别输入到各个预测层进行人脸框、人脸关键点定位和口罩识别操作。
对于每个锚点,使用相对其坐标的4个偏移量以及N个用于分类的分数进行表示,N=2;在检测器训练时针对每个锚点,最小化式多任务损失函数:
其中Lobj为交叉熵损失函数检测锚点是否包含目标分类,pi为锚点有目标的概率,如果锚点包含目标,则否则为0;Lbox采用smoth-L1损失函数用于人脸锚点定位,ti={tx,ty,tw,th}i为预测框的坐标偏移量,为正样本锚点的坐标偏移量;Llandmark采用smoth-L1损失函数用于人脸关键点定位,li={lx1,ly1,lx2,ly2,...,lx5,ly5}i为预测的关键点偏移量,为正样本关键点坐标偏移量,若样本为戴口罩li={lx1,ly1,lx2,ly2}i,其中lx1,ly1和分别代表左眼预测关键点坐标偏移量和正样本关键点偏移量,lx2,ly2和分别代表右眼预测关键点坐标偏移量和正样本关键点偏移量;λ1和λ2分别为人脸框和关键点损失函数的权重系数。
其中,采用10到256像素的锚点来匹配相应的有效感受野的最小尺寸,每个用于检测特征的锚点尺寸分别设为(10,16,24)、(32,48)、(64,96)和(128,192,256)。
本发明通过上述设计后,实现了端到端的口罩识别目的,无需增加额外的分类器单独识别是否戴口罩,在移动端只有CPU的情况下可以避免对图片旋转、抠图等操作,节省时间。另外,本发明针对戴口罩人脸的关键点检测做出优化,在戴口罩情况下,训练时只对可见的眼部特征损失进行优化。
S3,根据生成的锚点进行解码:将人脸框预测值进行解码操作,转换为边界框的真实位置,将人脸关键点进行解码操作,转换为关键点的真实位置。
具体的解码过程为:
将检测器得到的人脸框预测值l=(lcx,lcy,lw,lh)进行解码操作,转化为边界框的真实位置b=(bcx,bcy,bw,bh):
bcx=lcxdw+dcx,bcy=lcydh+dcy;
bw=dwexp(lw),bh=dhexp(lh);
其中,d=(dcx,dcy,dw,dh)表示步骤S2生成的默认锚点。
S4,非极大值抑制:采用阈值为0.4的非极大值抑制算法消除重叠检测框,得到最终的人脸检测框、人脸关键点和口罩识别结果,包括检测框左上角坐标、右下角坐标、两只眼睛坐标、鼻子坐标、一对嘴角坐标和是否戴口罩置信度的信息。
将如图3所示的图片通过预处理的方式调整图像大小,使其标准化。将标准化后的图片格致转换为YUV格式,只保存Y通道的数据后,采用数据增强处理后,输入已训练完成的检测器中进行预测。预测时的网络模型如图2中所示,多任务损失函数中,锚点包含目标,最终检测到一个人脸检测框并进行了红框标注,每个人脸检测框中含有两只眼睛坐标、鼻子坐标、一对嘴角坐标并进行了标注。得到的检测结果为人脸检测框、人脸关键点和口罩识别结果,这些检测结果用于人脸识别场景中,可作为精确的数据使用于后续其他识别过程中。特别的,本发明中针对检测结果中的人脸关键点提取两只眼睛坐标来作为精确数据,为后续经数据处理后判断是否为活体给出了重要依据。
将如图4所示的图片通过预处理的方式调整图像大小,使其标准化。将标准化后的图片格致转换为YUV格式,只保存Y通道的数据后,采用数据增强处理后,输入已训练完成的检测器中进行预测。预测时的网络模型如图2中所示,多任务损失函数中,锚点包含目标,最终检测到一个人脸检测框并进行了红框标注,每个人脸检测框中含有两只眼睛坐标、鼻子坐标、一对嘴角坐标并进行了标注。
S5,截取眼部图像:根据人脸关键点提取两只眼睛坐标x和y,将x和y分别向四个方向延伸预设像素后得到眼部图像。
具体的,根据人脸关键点提取两只眼睛坐标x和y,将x和y分别向四个方向延伸32个像素后得到64*64的眼部图像。
S6,活体识别神经网络:采用预设的活体识别神经网络判断眼部图像是否为活体,得到判断结果。
具体的,活体识别神经网络采用mobilenet轻量化神经网络提取活体特征,活体识别神经网络使用交叉熵损失函数作为损失函数,判断眼部图像是否为活体的判断结果为是活体,或者不是活体。
本步骤中的活体识别神经网络采用已经训练好的活体识别神经网络,在训练时,训练的数据集是使用采集的样本,其中正样本为红外相机下拍摄的真人图片,攻击样本为红外图像下拍摄的手机屏幕人脸、ipad人脸、打印的彩色人脸或灰度人脸中的一种或多种组合形式。
如图3中所示的图片为攻击样本,图片经S4处理后,根据人脸关键点提取两只眼睛坐标x和y,将x和y分别向四个方向延伸32个像素后得到64*64的眼部图像,通过本步骤的活体识别神经网络判断眼部图像后,判断结果为“fake”不是活体。
如图4中所示的图片为真人图片,图片经S4处理后,根据人脸关键点提取两只眼睛坐标x和y,将x和y分别向四个方向延伸32个像素后得到64*64的眼部图像,通过本步骤的活体识别神经网络判断眼部图像后,判断结果为“real”是活体。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (9)
1.一种基于红外图像的活体检测方法,其特征在于,包括:
采集红外图片并对所述图片进行预处理操作;
将所述图片放入预设的检测器中进行预测,通过所述检测器的主干网络中四个不同卷积层得到的特征与多个尺寸的锚点结合,进行人脸检测、人脸关键点检测和口罩识别,得到人脸框预测值、人脸关键点和口罩识别结果;具体地,包括:
将图片放入训练后的所述检测器中进行预测,预测时将所述主干网络中的第8、11、13和15个卷积层中的特征分别输入到各个预测层进行人脸框、人脸关键点定位和口罩识别操作;
对于每个锚点,使用相对其坐标的4个偏移量以及N个用于分类的分数进行表示,N=2;在检测器训练时针对每个锚点,最小化式多任务损失函数:
其中Lobj为交叉熵损失函数检测锚点是否包含目标分类,pi为锚点有目标的概率,如果锚点包含目标,则否则为0;Lbox采用smoth-L1损失函数用于人脸锚点定位,ti={tx,ty,tw,th}i为预测框的坐标偏移量,为正样本锚点的坐标偏移量;Llandmark采用smoth-L1损失函数用于人脸关键点定位,li={lx1,ly1,lx2,ly2,...,lx5,ly5}i为预测的关键点偏移量,为正样本关键点坐标偏移量,若样本为戴口罩li={lx1,ly1,lx2,ly2}i,其中lx1,ly1和分别代表左眼预测关键点坐标偏移量和正样本关键点偏移量,lx2,ly2和分别代表右眼预测关键点坐标偏移量和正样本关键点偏移量;λ1和λ2分别为人脸框和关键点损失函数的权重系数;
将所述人脸框预测值进行解码操作,转换为边界框的真实位置,将所述人脸关键点进行解码操作,转换为关键点的真实位置;
采用阈值为0.4的非极大值抑制算法消除重叠检测框,得到最终的人脸检测框、人脸关键点和口罩识别结果,包括检测框左上角坐标、右下角坐标、两只眼睛坐标、鼻子坐标、一对嘴角坐标和是否戴口罩置信度的信息;
根据所述人脸关键点提取两只眼睛坐标x和y,将x和y分别向四个方向延伸预设像素后得到眼部图像;
采用预设的活体识别神经网络判断所述眼部图像是否为活体,得到判断结果。
2.如权利要求1所述的基于红外图像的活体检测方法,其特征在于,所述将所述图片放入预设的检测器中进行预测之前,还包括:
向所述检测器加载预设的预训练网络参数,根据预设的锚点的尺寸及长宽比例,生成默认锚点;
通过预设的数据集对所述检测器进行训练,得到训练后的检测器;
所述检测器包括主干网络、预测层和多任务损失层。
3.如权利要求2所述的基于红外图像的活体检测方法,其特征在于,所述通过预设的数据集对所述检测器进行训练,得到训练后的检测器,包括:
采集包括未遮挡数据和遮挡数据作为数据集,将所述数据集中的BGR图片转换为YUV格式,只保存Y通道的数据后,进行数据增强,得到增强后的数据集;
采用动量为0.9,权重衰减因子为0.0005的随机优化算法进行网络训练,所述随机优化算法采用难样本挖掘的方式减少正负样本之间的不平衡,在训练的前100轮,初始化学习率设置为10-3,在之后的50轮和100轮各降低10倍,在训练期间,首先将每个预测值与最佳的Jaccard重叠锚点进行匹配,之后将锚点匹配到具有高于0.35阈值的Jaccard重叠人脸。
4.如权利要求3所述的基于红外图像的活体检测方法,其特征在于,所述未遮挡数据为未佩戴口罩时的人脸图片,所述遮挡数据为佩戴口罩时的人脸图片,所述遮挡数据大于所述未遮挡数据。
5.如权利要求3所述的基于红外图像的活体检测方法,其特征在于,所述进行数据增强,包括:
通过对所述数据集中的图片采用颜色失真、增加亮度对比、随机裁剪、水平翻转和变换通道中的至少一种或多种方式的组合增加数据以防止模型过拟合。
6.如权利要求1所述的基于红外图像的活体检测方法,其特征在于,采用10到256像素的锚点来匹配相应的有效感受野的最小尺寸,每个用于检测特征的锚点尺寸分别设为(10,16,24)、(32,48)、(64,96)和(128,192,256)。
8.如权利要求1所述的基于红外图像的活体检测方法,其特征在于,所述根据所述人脸关键点提取两只眼睛坐标x和y,将x和y分别向四个方向延伸预设像素后得到眼部图像,包括:
根据所述人脸关键点提取两只眼睛坐标x和y,将x和y分别向四个方向延伸32个像素后得到64*64的眼部图像。
9.如权利要求1所述的基于红外图像的活体检测方法,其特征在于,所述采用预设的活体识别神经网络判断所述眼部图像是否为活体,得到判断结果,包括:
所述活体识别神经网络采用mobilenet轻量化神经网络提取活体特征,所述活体识别神经网络使用交叉熵损失函数作为损失函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011106811.1A CN112232204B (zh) | 2020-10-16 | 2020-10-16 | 基于红外图像的活体检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011106811.1A CN112232204B (zh) | 2020-10-16 | 2020-10-16 | 基于红外图像的活体检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112232204A CN112232204A (zh) | 2021-01-15 |
CN112232204B true CN112232204B (zh) | 2022-07-19 |
Family
ID=74118035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011106811.1A Active CN112232204B (zh) | 2020-10-16 | 2020-10-16 | 基于红外图像的活体检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112232204B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111598046A (zh) * | 2020-05-27 | 2020-08-28 | 北京嘉楠捷思信息技术有限公司 | 人脸遮挡检测方法及人脸遮挡检测装置 |
CN112801038B (zh) * | 2021-03-02 | 2022-07-22 | 重庆邮电大学 | 一种多视点的人脸活体检测方法及系统 |
CN113033374A (zh) * | 2021-03-22 | 2021-06-25 | 开放智能机器(上海)有限公司 | 人工智能识别危险行为方法、装置、电子设备和存储介质 |
CN113298008A (zh) * | 2021-06-04 | 2021-08-24 | 杭州鸿泉物联网技术股份有限公司 | 基于活体检测的驾驶员人脸识别资质认证方法及装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107748858A (zh) * | 2017-06-15 | 2018-03-02 | 华南理工大学 | 一种基于级联卷积神经网络的多姿态眼睛定位方法 |
CN111488756B (zh) * | 2019-01-25 | 2023-10-03 | 杭州海康威视数字技术股份有限公司 | 基于面部识别的活体检测的方法、电子设备和存储介质 |
CN109919097A (zh) * | 2019-03-08 | 2019-06-21 | 中国科学院自动化研究所 | 基于多任务学习的人脸和关键点联合检测系统、方法 |
CN110119676B (zh) * | 2019-03-28 | 2023-02-03 | 广东工业大学 | 一种基于神经网络的驾驶员疲劳检测方法 |
CN110647817B (zh) * | 2019-08-27 | 2022-04-05 | 江南大学 | 基于MobileNet V3的实时人脸检测方法 |
CN110866490A (zh) * | 2019-11-13 | 2020-03-06 | 复旦大学 | 一种基于多任务学习的人脸检测方法及装置 |
CN111680588A (zh) * | 2020-05-26 | 2020-09-18 | 广州多益网络股份有限公司 | 一种基于可见光和红外光的人脸闸机活体检测方法 |
-
2020
- 2020-10-16 CN CN202011106811.1A patent/CN112232204B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112232204A (zh) | 2021-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112232204B (zh) | 基于红外图像的活体检测方法 | |
CN108446617B (zh) | 抗侧脸干扰的人脸快速检测方法 | |
CN108717524B (zh) | 一种基于双摄手机和人工智能系统的手势识别系统 | |
WO2021159767A1 (zh) | 一种医学图像处理的方法、图像处理的方法及装置 | |
CN111368666B (zh) | 一种基于新型池化及注意力机制双流网络的活体检测方法 | |
CN111310718A (zh) | 一种遮挡人脸图像高准确率检测对比方法 | |
CN112232205B (zh) | 移动端cpu实时多功能人脸检测方法 | |
CN114783024A (zh) | 基于YOLOv5的公共场所戴口罩的人脸识别系统 | |
CN105913002B (zh) | 视频场景下在线自适应的异常事件检测方法 | |
CN112215043A (zh) | 一种人脸活体检测方法 | |
CN116309607B (zh) | 基于机器视觉的船艇式智能水上救援平台 | |
CN112614136A (zh) | 一种红外小目标实时实例分割方法及装置 | |
CN114550268A (zh) | 一种利用时空特征的深度伪造视频检测方法 | |
CN108090428A (zh) | 一种人脸识别方法及其系统 | |
CN111079688A (zh) | 一种人脸识别中的基于红外图像的活体检测的方法 | |
CN109325472B (zh) | 一种基于深度信息的人脸活体检测方法 | |
CN116229528A (zh) | 一种活体掌静脉检测方法、装置、设备及存储介质 | |
CN112818938A (zh) | 一种自适应光照干扰环境的人脸识别算法及人脸识别装置 | |
CN110222647B (zh) | 一种基于卷积神经网络的人脸活体检测方法 | |
CN111881841B (zh) | 一种基于双目视觉的人脸检测识别方法 | |
CN111881803B (zh) | 一种基于改进YOLOv3的畜脸识别方法 | |
CN117496019B (zh) | 一种驱动静态图像的图像动画处理方法及系统 | |
CN112200008A (zh) | 一种社区监控场景下人脸属性识别方法 | |
CN111797694A (zh) | 一种车牌检测方法及装置 | |
CN112070041B (zh) | 一种基于cnn深度学习模型的活体人脸检测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |