CN116863521A - 人脸活体检测方法、模型训练方法、装置、设备、介质 - Google Patents
人脸活体检测方法、模型训练方法、装置、设备、介质 Download PDFInfo
- Publication number
- CN116863521A CN116863521A CN202310779602.0A CN202310779602A CN116863521A CN 116863521 A CN116863521 A CN 116863521A CN 202310779602 A CN202310779602 A CN 202310779602A CN 116863521 A CN116863521 A CN 116863521A
- Authority
- CN
- China
- Prior art keywords
- training
- face
- living body
- body detection
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 332
- 238000012549 training Methods 0.000 title claims abstract description 295
- 238000000034 method Methods 0.000 title claims abstract description 85
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 226
- 230000000007 visual effect Effects 0.000 claims abstract description 139
- 238000012545 processing Methods 0.000 claims abstract description 12
- 238000001574 biopsy Methods 0.000 claims description 33
- 230000008014 freezing Effects 0.000 claims description 18
- 238000007710 freezing Methods 0.000 claims description 18
- 238000013528 artificial neural network Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 16
- 230000015654 memory Effects 0.000 claims description 12
- 238000001727 in vivo Methods 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 8
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 7
- 238000012360 testing method Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 abstract description 2
- 239000011159 matrix material Substances 0.000 description 18
- 238000010586 diagram Methods 0.000 description 13
- 238000007781 pre-processing Methods 0.000 description 13
- 238000000605 extraction Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 101000986989 Naja kaouthia Acidic phospholipase A2 CM-II Proteins 0.000 description 6
- 239000000203 mixture Substances 0.000 description 5
- 230000000903 blocking effect Effects 0.000 description 4
- 238000013136 deep learning model Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本公开提供了人脸活体检测方法、模型训练方法、装置、设备、介质,涉及人工智能技术领域,尤其涉及计算机视觉、图像处理、深度学习等技术领域,可应用于活体检测等场景。具体实现方案为:获取待识别人脸图像;将所述待识别人脸图像输入预先训练的人脸活体检测模型获取活体检测结果;其中,所述人脸活体检测模型包括多个卷积神经网络模块和多个视觉自注意力模块,所述卷积神经网络模块和所述视觉自注意力模块交替连接。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及计算机视觉、图像处理、深度学习等技术领域,可应用于活体检测等场景。具体而言,本公开涉及一种人脸活体检测方法、模型训练方法、装置、设备、介质。
背景技术
人脸活体检测即区分一张图像是否为真人拍摄,是人脸识别系统的基础组成模块,可以应用于人脸识别领域的考勤、门禁、安防、金融支付等诸多应用。
保证人脸活体检测的准确性可以帮助保证人脸识别系统的安全性。
发明内容
本公开提供了一种人脸活体检测方法、模型训练方法、装置、设备、介质。
根据本公开的第一方面,提供了一种人脸活体检测的方法,该方法包括:
获取待识别人脸图像;
将所述待识别人脸图像输入预先训练的人脸活体检测模型获取活体检测结果;
其中,所述人脸活体检测模型包括多个卷积神经网络模块和多个视觉自注意力模块,所述卷积神经网络模块和所述视觉自注意力模块交替连接。
根据本公开的第二方面,提供了一种人脸活体检测模型的训练方法,该方法包括:
获取多个训练人脸图像以及所述训练人脸图像对应的活体检测标签;
根据所述训练人脸图像以及所述训练人脸图像对应的活体检测标签对所述人脸活体检测模型进行训练;
其中,所述人脸活体检测模型包括多个卷积神经网络模块和多个视觉自注意力模块,所述卷积神经网络模块和所述视觉自注意力模块交替连接。
根据本公开的第三方面,提供了一种人脸活体检测的装置,该装置包括:
测试数据模块,用于获取待识别人脸图像;
推理模块,用于将所述待识别人脸图像输入预先训练的人脸活体检测模型获取活体检测结果;
其中,所述人脸活体检测模型包括多个卷积神经网络模块和多个视觉自注意力模块,所述卷积神经网络模块和所述视觉自注意力模块交替连接。
根据本公开的第四方面,提供了一种人脸活体检测模型的训练装置,该装置包括:
训练数据模块,用于获取多个训练人脸图像以及所述训练人脸图像对应的活体检测标签;
训练模块,用于根据所述训练人脸图像以及所述训练人脸图像对应的活体检测标签对所述人脸活体检测模型进行训练;
其中,所述人脸活体检测模型包括多个卷积神经网络模块和多个视觉自注意力模块,所述卷积神经网络模块和所述视觉自注意力模块交替连接。
根据本公开的第五方面,提供了一种电子设备,该电子设备包括:
至少一个处理器;以及
与上述至少一个处理器通信连接的存储器;其中,
存储器存储有可被上述至少一个处理器执行的指令,指令被上述至少一个处理器执行,以使上述至少一个处理器能够执行上述人脸活体检测方法和/或人脸活体检测模型的训练方法。
根据本公开的第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,该计算机指令用于使计算机执行上述人脸活体检测方法和/或人脸活体检测模型的训练方法。
根据本公开的第七方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现上述人脸活体检测方法和/或人脸活体检测模型的训练方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是本公开实施例提供的一种人脸活体检测方法的流程示意图;
图2是本公开实施例提供的人脸活体检测模型的卷积神经网络模块和视觉自注意力模块交替连接的一种实现方式的结构示意图;
图3是本公开实施例提供的另一种人脸活体检测方法的部分步骤的流程示意图;
图4是本公开实施例提供的另一种人脸活体检测方法中通过冻结模块的参数的方法进行模型训练的一种实现方式的网络训练过程示意图;
图5是本公开实施例提供的一种人脸活体检测网络的训练方法的流程示意图;
图6是本公开实施例提供的另一种人脸活体检测网络的训练方法的部分步骤的流程示意图;
图7本公开实施例提供的一种人脸活体检测装置的结构示意图;
图8是本公开实施例提供的一种人脸活体检测网络的训练装置的结构示意图;
图9是用来实现本公开实施例的人脸活体检测方法和人脸活体检测网络的训练方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在一些相关技术中,使用传统的人脸手工特征提取及分类方法实现人脸活体检测,具体的,基于手工涉及的特征提取器提取人脸特征,然后基于SVM(SupportVectorMachine,支持向量机)的传统分类器进行特征分类获取人脸活体检测结果。
但传统的人脸手工特征提取及分类方法对于真实场景中人脸姿态过大或光照差异较大时鲁棒性较差,导致识别效果并不理想。
在一些相关技术中,使用深度学习模型,如卷积神经网络模型、LSTM(Longshort-termmemory,长短期记忆)网络实现人脸特征提取以及分类,获取人脸活体检测结果,相比于传统的方法,深度学习的方法能够提取到稳定性更强的人脸特征,在性能上有较大的提升。
但基于单张图像作为输入的深度学习模型存在对光线敏感度较高,对于照片、视频等平面攻击以及头套、头模等3D(三维)立体攻击泛化性较差的问题,影响实际应用性能。
本公开实施例提供的人脸活体检测方法、人脸活体检测模型的训练方法、人脸活体检测装置、人脸活体检测模型的训练装置、电子设备、计算机可读存储介质,旨在解决现有技术的如上技术问题中的至少一个。
本公开实施例提供的人脸活体检测方法、人脸活体检测模型的训练方法可以由终端设备或服务器等电子设备执行,终端设备可以为车载设备、用户设备(UserEquipment,UE)、移动设备、用户终端、终端、蜂窝电话、无绳电话、个人数字助理(PersonalDigitalAssistant,PDA)、手持设备、计算设备、车载设备、可穿戴设备等,所述方法可以通过处理器调用存储器中存储的计算机可读程序指令的方式来实现。或者,可通过服务器执行所述方法。
图1示出了本公开实施例提供的人脸活体检测方法的流程示意图。如图1所示,本公开实施例的人脸活体检测方法可以包括步骤S110、步骤S120。
在步骤S110中,获取待识别人脸图像;
在步骤S120中,将待识别人脸图像输入预先训练的人脸活体检测模型获取活体检测结果;
其中,人脸活体检测模型包括多个卷积神经网络模块和多个视觉自注意力模块,卷积神经网络模块和视觉自注意力模块交替连接。
举例来说,在步骤S110中,待识别人脸图像可以是仅包含人脸的图像。
在一些可能的实现方式中,待识别人脸图像可以是直接通过拍摄获取的图像。
在一些可能的实现方式中,待识别人脸图像可以是通过对人物图像预处理获取的图像。
在一些可能的实现方式中,对人物图像的预处理可以包括人脸检测、关键点检测、人脸对齐、仿射变换、归一化处理,经过预处理可以减少光线等对待识别人脸图像的影响,提升获取的活体检测结果的准确性。
在一些可能的实现方式中,待识别人脸图像可以是RGB(红绿蓝颜色系统)图像;在一些可能的实现方式中,待识别人脸图像可以是深度图像;在一些可能的实现方式中,待识别人脸图像可以是红外图像。
在一些可能的实现方式中,在步骤S120中,活体检测结果为待识别人脸图像是否为人脸活体图像。
在一些可能的实现方式中,预先训练的人脸活体检测模型可以是使用多个训练人脸图像和训练人脸图像对应的活体检测标签训练获取的。
在一些可能的实现方式中,训练人脸图像可以包括真实人脸图像,也可以包括屏幕攻击、纸质攻击等平面攻击图像,还可以包括头套、头模等立体攻击图像。真实人脸图像对应的活体检测标签可以是标识该图像是人脸活体的标签,平面攻击图像和立体攻击图像对应的活体检测标签可以是标识该图像不是人脸活体的标签。
在一些可能的实现方式中,训练人脸图像可以都是RGB图像,也可以都是深度图像,也可以都是红外图像。
在训练人脸图像为RGB图像的情况下,待识别人脸图像是RGB图像使用本公开实施例提供的人脸活体检测方法获取的活体检测结果的准确性更高。
在训练人脸图像为深度图像的情况下,待识别人脸图像是深度图像使用本公开实施例提供的人脸活体检测方法获取的活体检测结果的准确性更高。
在训练人脸图像为红外图像的情况下,待识别人脸图像是红外图像使用本公开实施例提供的人脸活体检测方法获取的活体检测结果的准确性更高。
在一些可能的实现方式中,人脸活体检测模型包括多个交替连接的卷积神经网络模块和多个ViT(VisionTransformer,视觉自注意力)模块。
其中,卷积神经网络模块由一个或多个ConvolutionalLayer(卷积层)组成,其可以用于提取图像的图像特征,由较少卷积层组成的卷积神经网络模块可以提取图像的底层特征和局部特征,随着卷积层层数的增加,卷积神经网络模块可以提取高层语义特征和全局特征。卷积神经网络模块的输入可以是图像或图像的特征图,输出是图像特征图。
ViT模块包括多个连接的ViT结构,每个ViT结构包括Transformer Encoder(自注意力编码器)。ViT模块的输入可以是图像或者图像特征图分割而成的小块,输出可以是图像特征图分割而成的小块。
在一些可能的实现方式中,ViT模块还可以包括LinearProjectionofFlattenedPatches(平面块的线性投影)。
其中,LinearProjectionofFlattenedPatches是一个图像特征层,其主要作用是实现图像的分块以及Token(向量)序列的生成,并将生成的序列输入TransformerEncoder,其可以实现将卷积神经网络模块输出的特征图进行分块,生成Token序列。
举例来说,针对224x224的图像,LinearProjectionofFlattenedPatches可以将其分为16x16大小的Patch,得到196个Patch,每个Patchflattern(展平)为长度为16x16x3=768的向量,最终得到一个196x768的二维矩阵,也就是TransformerEncoder需要输入的序列格式。
除此之外,还有一个ClassEmbedding(或者叫ClassToken,分类向量),这个向量是一个可学习的向量。其维度为1x768,将此ClassToken与上边生成的矩阵拼接,可以得到维度为197x768的矩阵。
此外还有一个可学习向量PositionEmbedding(位置向量),维度为197x768,将此位置编码与上边生成的维度为197x768的矩阵进行Element-Sum(元素加和)获取最终的解决输入TransformerEncoder的输入矩阵,该矩阵的维度为197x768。
TransformerEncoder包括多个EncodeBlock(编码块),每一个Encode Block(编码块)由Multi-headAttention(多头注意力层)与Add&Norm层(Add表示残差结构,Norm表示LayerNormalization,层归一化)组成,其可以提取图像的高层语义特征以及全局特征并通过对高层语义特征和全局特征的学习确定ClassToken的参数。TransformerEncoder获取的特征高层语义特征以及全局特征保存在矩阵中,而该矩阵包括多个图像块对应的图像特征,通过将图像块对应的图像特征进行拼接,就可以生成可以输入卷积神经网络模块的特征图。
在一些可能的实现方式中,ViT模块包括多个连接的ViT结构可以是ViT模块包括依次连接的一个LinearProjectionofFlattenedPatches以及多个TransformerEncoder。举例来说,ViT模块包括3个ViT结构,则ViT模块包括依次连接的LinearProjectionofFlattenedPatches、3个Transformer Encoder。
在一些可能的实现方式中,卷积神经网络模块和视觉自注意力模块交替连接可以是视觉自注意力模块21的输入包括卷积神经网络模块11的输出,卷积神经网络12的输入包括视觉自注意力模块21的输出,视觉自注意力模块22的输入包括卷积神经网络模块12的输出,以此类推,直至所有卷积神经网络模块和视觉自注意力模块连接完成。
图2示出了卷积神经网络模块和视觉自注意力模块交替连接的一种实现方式的结构示意图。如图2中所示,人脸活体检测模型可以包括依次连接的第一卷积神经网络模块CM1、第一视觉自注意力模块VM1、第二卷积神经网络模块CM2、第二视觉自注意力模块VM2、第三卷积神经网络模块CM3、第三视觉自注意力模块VM3。
卷积神经网络模块和视觉自注意力模块是不同的特征提取模块,其分别可以用于提取待识别人脸图像的底层特征、局部特征以及高层语义特征、全局特征。其中,底层特征、局部特征可以用于识别屏幕攻击、纸质攻击等平面攻击,高层语义特征、全局特征可以用于识别头套、头模等立体攻击图像。由此,通过由卷积神经网络模块和视觉自注意力模块组成的人脸活体检测模型可以获取人脸活体检测所需要的多种特征,进而提升了人脸活体检测模型对各种攻击的泛化性和鲁棒性,提升了人脸活体检测模型的检测准确性。
同时,通过卷积神经网络模块和视觉自注意力模块的交替连接,可以将卷积神经网络模块和视觉自注意力模块提取的特征进行充分的融合,进一步提升获取的特征的丰富性,提升人脸活体检测模型对各种攻击的泛化性和鲁棒性,提升人脸活体检测模型的检测准确性。
在一些可能的实现方式中,如图2所示,第一卷积神经网络模块CM1还连接第二卷积神经网络模块CM2,第二卷积神经网络模块CM2还连接第三卷积神经网络模块CM3。
也就是说,第二卷积神经网络模块CM2的输入还包括第一卷积神经网络模块CM1的输出;第三卷积神经网络模块CM3的输入还包括第二卷积神经网络模块CM2的输出。
在一些可能的实现方式中,第一卷积神经网络模块CM1可以由多个卷积层组成,第二卷积神经网络模块CM2和第三卷积神经网络模块CM3可以由多个ResNetBlock(残差网络块)组成。
在一些可能的实现方式中,如图2所示,人脸活体检测模型还包括由全连接层组成分类模块,其用于根据交替连接的卷积神经网络模块和视觉自注意力模块提取的特征获取活体检测结果。
在一些可能的实现方式中,人脸活体检测模型可以通过冻结模块的参数的方法进行训练,以方便卷积神经网络模块和视觉自注意力模块更好的学习图像的不同特征。
在本公开实施例提供的人脸活体检测方法中,通过由交替连接的卷积神经网络模块和视觉自注意力模块组成的人脸活体检测模型对待识别人脸图像进行检测获取活体检测结果,由于卷积神经网络模块和视觉自注意力模块是不同的特征提取模块,可以提取不同的图像特征,获取人脸活体检测所需要的多种特征,提升人脸活体检测模型对各种攻击的泛化性和鲁棒性。同时,卷积神经网络模块和视觉自注意力模块交替连接,可以将卷积神经网络模块和视觉自注意力模块提取的特征进行充分的融合,进一步提升获取的特征的丰富性,提升人脸活体检测模型对各种攻击的泛化性和鲁棒性。因此,使用本公开实施例提供的人脸活体检测方法获取的活体检测结果的准确性更高。
下面对本公开实施例提供的人脸活体检测方法进行具体介绍。
如上所述,在一些可能的实现方式中,待识别人脸图像可以是通过对人物图像预处理获取的图像。
图3示出了通过预处理获取待识别人脸图像的步骤的流程示意图。如图3中所示,通过预处理获取待识别人脸图像可以包括步骤S310、步骤S320、步骤S330、步骤S340。
在步骤S310中,获取待识别人物图像,对待识别人物图像进行人脸检测,获取待识别人物图像的人脸区域;
在步骤S320中,对人脸区域进行人脸关键点检测,获取人脸关键点坐标;
在步骤S330中,根据人脸关键点坐标对人脸区域进行人脸对齐,并通过仿射变换获取预设尺寸的人脸图像;
步骤S340中,对人脸图像进行归一化处理,获取待识别人脸图像。
在一些可能的实现方式中,在步骤S310中,获取的待识别人物图像可以是对人物进行拍摄获取的图像,其大小可以不做限制。
在一些可能的实现方式中,可以通过传统的机器学习方法对待识别人物图像进行人脸检测,获取待识别人物图像中人脸位置;也可以通过预先训练的人脸检测模型获取待识别人物图像中人脸位置,根据人脸位置确定人脸区域。
人脸检测模型可以是任何人脸活体检测模型,本公开实施例并不对人脸检测模型的具体组成做限制。
在一些可能的实现方式中,在步骤S320中,对获取的人脸区域进行人脸关键点检测可以是使用预先训练的人脸关键点检测模型对人脸区域进行人脸关键点检测。
人脸关键点检测模型可以是任何可以实现人脸关键点检测的深度学习模型,本公开实施例并不对人脸关键点检测模型的具体组成做限制。
在一些可能的实现方式中,人脸关键点共有72个。
在一些可能的实现方式中,预设尺寸可以是224x224,在步骤S330中,根据人脸的关键点坐标值对待识别人物图像的目标人脸进行人脸对齐,同时通过仿射变换截取仅包含人脸区域的人脸图像,并将人脸图像调整到预设尺寸。
在一些可能的实现方式中,对人脸图像进行归一化处理可以是对人脸图像中每个像素的像素值减128再除以256,使每个像素的像素值在[-0.5,0.5]之间。
经过预处理可以将待识别人物图像中非人脸区域进行剔除,减少非人脸区域对人脸活体检测的影响,同时,通过归一化可以减少光线等对待识别人脸图像的影响,提升获取的活体检测结果的准确性。
如上所述,在一些可能的实现方式中,如图2所示,第一卷积神经网络模块CM1还连接第二卷积神经网络模块CM2,第二卷积神经网络模块CM2还连接第三卷积神经网络模块CM3。
也就是说,第二卷积神经网络模块CM2的输入还包括第一卷积神经网络模块CM1的输出;第三卷积神经网络模块CM3的输入还包括第二卷积神经网络模块CM2的输出。
通过卷积神经网络模块之间的连接可以将底层的卷积神经网络模块(如第一卷积神经网络模块CM1)提取的底层特征信息传播至高层的卷积神经网络模块(如第三卷积神经网络模块CM3),提升了高层的卷积神经网络模块获取的特征的丰富度。
在一些可能的实现方式中,第一卷积神经网络模块CM1可以由多个卷积层组成,第二卷积神经网络模块CM2和第三卷积神经网络模块CM3可以由多个ResNetBlock(残差网络块)组成。
相比于普通的卷积层,ResNetBlock容易优化,并且能够缓解在深度神经网络中增加深度带来的梯度消失问题,因此,相比于普通的卷积层,ResNetBlock更加适合作为高层的卷积神经网络。
经过实验,通过2个卷积层组成第一卷积神经网络模块CM1、通过4个ResNetBlock组成第二卷积神经网络模块CM2和第三卷积神经网络模块CM3,进而组成人脸活体检测模型的性能最好。
在一些可能的实现方式中,如图2所示,人脸活体检测模型还包括由全连接层组成分类模块,其用于根据交替连接的卷积神经网络模块和视觉自注意力模块提取的特征获取活体检测结果。
在一些具体的实现方式中,将待识别人脸图像输入预先训练的人脸活体检测模型获取活体检测结果的具体过程可以包括:
将待识别人脸图像输入由2个卷积层组成的第一卷积神经网络模块CM1,在第一卷积神经网络模块CM1的第2个卷积层进行下采样操作,提取待识别人脸图像的底层特征信息;
然后将第一卷积神经网络模块CM1提取的特征图输入由3个ViT结构组成的第一视觉自注意力模块VM1,第一卷积神经网络模块CM1和第一视觉自注意力模块VM1输出的特征进行相加操作输入到由4个Resnet Block组成的第二卷积神经网络模块CM2中,同样的,在第二卷积神经网络模块CM2的最后一个卷积层进行下采样操作;
然后将第二卷积神经网络模块CM2提取的特征图输入到由3个ViT结构组成的第二视觉自注意力模块VM2中。第二卷积神经网络模块CM2和第二视觉自注意力模块VM2得到的特征进行相加操作输入到由4个ResnetBlock组成的第三卷积神经网络模块CM3中,同样的,在最后一个卷积层进行下采样操作;
最后将第三卷积神经网络模块CM3提取的特征图输入到3个ViT结构组成的第三视觉自注意力模块VM3中,根据第三视觉自注意力模块VM3输出的特征(具体可以是ClassToken),使用全连接层FC1得到最终活体检测结果。
如上所述,在一些可能的实现方式中,人脸活体检测模型可以通过冻结模块的参数的方法进行训练,以方便卷积神经网络模块和视觉自注意力模块更好的学习图像的不同特征。
图4是示出了通过冻结模块的参数的方法进行模型训练的一种实现方式的网络训练过程示意图。
如图4中所示,在训练过程中,先冻结所有视觉自注意力模块的参数(即图4中第一个网络结构图中画斜线的模块),使用训练人脸图像以及训练人脸图像对应的活体检测标签对人脸活体检测模型对应的预训练模型进行训练,获取第一训练模型。
其中,人体活体检测模型对应的预训练模型与人体活体检测模型的主题结构一致,也是包括交替连接的多个卷积神经网络模块和视觉自注意力模块,不同的是,最后一个卷积神经网络模块连接全连接层FC2,获取活体检测结果,根据活体检测结果和训练人脸图像对应的活体检测标签确定网络损失,根据网络损失对体活体检测模型对应的预训练模型的卷积神经网络模块的参数进行修改。
再冻结第一训练模型的卷积神经网络模块(即图4中第二个网络结构图中画斜线的模块)的参数,使用训练人脸图像以及训练人脸图像对应的活体检测标签对第一训练模型进行训练,获取第二训练模型。
其中,第一训练模型与人体活体检测模型结构一致,根据第一训练模型的全连接层FC1输出的获取活体检测结果,根据活体检测结果和训练人脸图像对应的活体检测标签确定网络损失,根据网络损失对第一训练模型的视觉自注意力模块的参数进行修改。
最后使用训练人脸图像以及训练人脸图像对应的活体检测标签对第二训练模型进行训练,获取训练完成的人脸活体检测模型。
其中,第二训练模型与人体活体检测模型结构一致,根据第二训练模型的全连接层FC1输出的获取活体检测结果,根据活体检测结果和训练人脸图像对应的活体检测标签确定网络损失,根据网络损失对第二训练模型的卷积神经网络模块和视觉自注意力模块的参数进行修改。
通过分别冻结卷积神经网络模块和视觉自注意力模块的参数,可以使卷积神经网络模块和视觉自注意力模块分别各自学习待识别人脸图像的特征,避免卷积神经网络模块和视觉自注意力模块学习图像特征过程的互相干扰,帮助卷积神经网络模块和视觉自注意力模块学习到更加好的特征。
在一些可能的实现方式中,人脸活体检测模型对应的预训练模型和第一训练模型的训练数据是不同的。
使用平面攻击图像以及平面攻击图像对应的活体检测标签对人脸活体检测模型对应的预训练模型进行训练获取第一训练模型。
使用立体攻击图像以及立体攻击图像对应的活体检测标签对第一训练模型进行训练获取第二训练模型。
由于识别屏幕攻击、纸质攻击等平面攻击需要提取图像的底层特征、局部特征,因此在冻结所有视觉自注意力模块的参数的情况下,使用平面攻击图像以及平面攻击图像对应的活体检测标签对人脸活体检测模型对应的预训练模型进行训练,可以使卷积神经网络模块学习提取底层特征、局部特征。
而识别头套攻击、头模攻击等立体攻击需要提取图像的高层语义特征、全局特征,因此在冻结所有卷积神经网络模块的参数的情况下,使用立体攻击图像以及立体攻击图像对应的活体检测标签对第一训练模型进行训练,可以使视觉自注意力模块学习提取高层语义特征、全局特征。
最后使用所有数据对第二训练模型进行训练,可以使卷积神经网络模块提取的特征和视觉自注意力模块提取的特征充分融合。
通过这样的训练方式,可以使人脸活体检测模型同时获取底层特征和高层语义特征,以及同时获取局部特征和全局特征,并将获取的特征进行充分的融合,提升提取的特征的丰富度,提升了人脸活体检测模型对多种攻击的泛化性和准确性。
图5示出了本公开实施例提供的一种人脸活体检测模型的训练方法的流程示意图,如图5中所示,本公开实施例提供的人脸活体检测模型的训练方法可以包括步骤S510、步骤S520。
在步骤S510中,获取多个训练人脸图像以及训练人脸图像对应的活体检测标签;
在步骤S520中,根据训练人脸图像以及训练人脸图像对应的活体检测标签对人脸活体检测模型进行训练;
其中,人脸活体检测模型包括多个卷积神经网络模块和多个视觉自注意力模块,卷积神经网络模块和视觉自注意力模块交替连接。
举例来说,在步骤S510中,训练人脸图像可以包括真实人脸图像,也可以包括屏幕攻击、纸质攻击等平面攻击图像,还可以包括头套、头模等立体攻击图像。真实人脸图像对应的活体检测标签可以是标识该图像是人脸活体的标签,平面攻击图像和立体攻击图像对应的活体检测标签可以是标识该图像不是人脸活体的标签。
在一些可能的实现方式中,训练人脸图像可以是直接通过拍摄获取的图像。
在一些可能的实现方式中,训练人脸图像也可以是通过对图像预处理获取的图像。
在一些可能的实现方式中,对图像的预处理可以包括人脸检测、关键点检测、人脸对齐、仿射变换、归一化处理,经过预处理可以减少光线等对训练人脸图像的影响,通过提升训练数据的质量提升获取的人脸活体检测模型的性能。
在一些可能的实现方式中,训练人脸图像可以是RGB图像;在一些可能的实现方式中,训练人脸图像可以是深度图像;在一些可能的实现方式中,训练人脸图像可以是红外图像。
在训练人脸图像为RGB图像的情况下,待识别人脸图像是RGB图像使用本公开实施例提供的人脸活体检测方法获取的活体检测结果的准确性更高。
在训练人脸图像为深度图像的情况下,待识别人脸图像是深度图像使用本公开实施例提供的人脸活体检测方法获取的活体检测结果的准确性更高。
在训练人脸图像为红外图像的情况下,待识别人脸图像是红外图像使用本公开实施例提供的人脸活体检测方法获取的活体检测结果的准确性更高。
在一些可能的实现方式中,在步骤S520中,人脸活体检测模型包括多个交替连接的卷积神经网络模块和多个ViT(VisionTransformer,视觉自注意力)模块。
其中,卷积神经网络模块由一个或多个ConvolutionalLayer(卷积层)组成,其可以用于提取图像的图像特征,由较少卷积层组成的卷积神经网络模块可以提取图像的底层特征和局部特征,随着卷积层层数的增加,卷积神经网络模块可以提取高层语义特征和全局特征。卷积神经网络模块的输入可以是图像或图像的特征图,输出是图像特征图。
ViT模块包括多个连接的ViT结构,每个ViT结构包括Transformer Encoder(自注意力编码器)。ViT模块的输入可以是图像或者图像特征图分割而成的小块,输出可以是图像特征图分割而成的小块。
在一些可能的实现方式中,ViT模块还可以包括LinearProjectionofFlattenedPatches(平面块的线性投影)。
其中,LinearProjectionofFlattenedPatches是一个图像特征层,其主要作用是实现图像的分块以及Token(向量)序列的生成,并将生成的序列输入TransformerEncoder,其可以实现将卷积神经网络模块输出的特征图进行分块,生成Token序列。
举例来说,针对224x224的图像,LinearProjectionofFlattenedPatches可以将其分为16x16大小的Patch,得到196个Patch,每个Patchflattern(展平)为长度为16x16x3=768的向量,最终得到一个196x768的二维矩阵,也就是TransformerEncoder需要输入的序列格式。
除此之外,还有一个ClassEmbedding(或者叫ClassToken,分类向量),这个向量是一个可学习的向量。其维度为1x768,将此ClassToken与上边生成的矩阵拼接,可以得到维度为197x768的矩阵。
此外还有一个可学习向量PositionEmbedding(位置向量),维度为197x768,将此位置编码与上边生成的维度为197x768的矩阵进行Element-Sum(元素加和)获取最终的解决输入TransformerEncoder的输入矩阵,该矩阵的维度为197x768。
TransformerEncoder包括多个EncodeBlock(编码块),每一个Encode Block(编码块)由Multi-headAttention(多头注意力层)与Add&Norm层(Add表示残差结构,Norm表示LayerNormalization,层归一化)组成,其可以提取图像的高层语义特征以及全局特征并通过对高层语义特征和全局特征的学习确定ClassToken的参数。TransformerEncoder获取的特征高层语义特征以及全局特征保存在矩阵中,而该矩阵包括多个图像块对应的图像特征,通过将图像块对应的图像特征进行拼接,就可以生成可以输入卷积神经网络模块的特征图。
在一些可能的实现方式中,ViT模块包括多个连接的ViT结构可以是ViT模块包括依次连接的一个LinearProjectionofFlattenedPatches以及多个TransformerEncoder。举例来说,ViT模块包括3个ViT结构,则ViT模块包括依次连接的LinearProjectionofFlattenedPatches、3个Transformer Encoder。
在一些可能的实现方式中,卷积神经网络模块和视觉自注意力模块交替连接可以是视觉自注意力模块21的输入包括卷积神经网络模块11的输出,卷积神经网络12的输入包括视觉自注意力模块21的输出,视觉自注意力模块22的输入包括卷积神经网络模块12的输出,以此类推,直至所有卷积神经网络模块和视觉自注意力模块连接完成。
图2示出了卷积神经网络模块和视觉自注意力模块交替连接的一种实现方式的结构示意图。如图2中所示,人脸活体检测模型可以包括依次连接的第一卷积神经网络模块CM1、第一视觉自注意力模块VM1、第二卷积神经网络模块CM2、第二视觉自注意力模块VM2、第三卷积神经网络模块CM3、第三视觉自注意力模块VM3。
卷积神经网络模块和视觉自注意力模块是不同的特征提取模块,其分别可以用于提取训练人脸图像的底层特征、局部特征以及高层语义特征、全局特征。其中,底层特征、局部特征可以用于识别屏幕攻击、纸质攻击等平面攻击,高层语义特征、全局特征可以用于识别头套、头模等立体攻击图像。由此,通过由卷积神经网络模块和视觉自注意力模块组成的人脸活体检测模型可以获取人脸活体检测所需要的多种特征,进而提升了人脸活体检测模型对各种攻击的泛化性和鲁棒性,提升了人脸活体检测模型的检测准确性。
同时,通过卷积神经网络模块和视觉自注意力模块的交替连接,可以将卷积神经网络模块和视觉自注意力模块提取的特征进行充分的融合,进一步提升获取的特征的丰富性,提升人脸活体检测模型对各种攻击的泛化性和鲁棒性,提升人脸活体检测模型的检测准确性。
在一些可能的实现方式中,如图2所示,第一卷积神经网络模块CM1还连接第二卷积神经网络模块CM2,第二卷积神经网络模块CM2还连接第三卷积神经网络模块CM3。
也就是说,第二卷积神经网络模块CM2的输入还包括第一卷积神经网络模块CM1的输出;第三卷积神经网络模块CM3的输入还包括第二卷积神经网络模块CM2的输出。
在一些可能的实现方式中,第一卷积神经网络模块CM1可以由多个卷积层组成,第二卷积神经网络模块CM2和第三卷积神经网络模块CM3可以由多个ResNetBlock(残差网络块)组成。
在一些可能的实现方式中,如图2所示,人脸活体检测模型还包括由全连接层组成分类模块,其用于根据交替连接的卷积神经网络模块和视觉自注意力模块提取的特征获取活体检测结果。
在一些可能的实现方式中,人脸活体检测模型可以通过冻结模块的参数的方法进行训练,以方便卷积神经网络模块和视觉自注意力模块更好的学习图像的不同特征。
在本公开实施例提供的人脸活体检测模型的训练方法中,由交替连接的卷积神经网络模块和视觉自注意力模块组的人脸活体检测模型,由于卷积神经网络模块和视觉自注意力模块是不同的特征提取模块,可以提取不同的图像特征,进而获取人脸活体检测所需要的多种特征,提升人脸活体检测模型对各种攻击的泛化性和鲁棒性。同时,卷积神经网络模块和视觉自注意力模块交替连接,可以将卷积神经网络模块和视觉自注意力模块提取的特征进行充分的融合,进一步提升获取的特征的丰富性,提升人脸活体检测模型对各种攻击的泛化性和鲁棒性。因此,使用本公开实施例提供的人脸活体检测模型的训练方法获取的人脸活体检测模型的性能更好。
下面对本公开实施例提供的人脸活体检测方法进行具体介绍。
如上所述,在一些可能的实现方式中,训练人脸图像可以是通过对人物图像预处理获取的图像。
通过预处理获取训练人脸图像可以包括:
获取训练人物图像,对训练人物图像进行人脸检测,获取训练人物图像的人脸区域;
对人脸区域进行人脸关键点检测,获取人脸关键点坐标;
根据人脸关键点坐标对人脸区域进行人脸对齐,并通过仿射变换获取预设尺寸的人脸图像;
对人脸图像进行归一化处理,获取训练人脸图像。
在一些可能的实现方式中,获取的训练人物图像可以是对人物进行拍摄获取的图像,其大小可以不做限制。
在一些可能的实现方式中,可以通过传统的机器学习方法对训练人物图像进行人脸检测,获取训练人物图像中人脸位置;也可以通过预先训练的人脸检测模型获取训练人物图像中人脸位置,根据人脸位置确定人脸区域。
人脸检测模型可以是任何人脸活体检测模型,本公开实施例并不对人脸检测模型的具体组成做限制。
在一些可能的实现方式中,对获取的人脸区域进行人脸关键点检测可以是使用预先训练的人脸关键点检测模型对人脸区域进行人脸关键点检测。
人脸关键点检测模型可以是任何可以实现人脸关键点检测的深度学习模型,本公开实施例并不对人脸关键点检测模型的具体组成做限制。
在一些可能的实现方式中,人脸关键点共有72个。
在一些可能的实现方式中,预设尺寸可以是224x224,根据人脸的关键点坐标值对训练人物图像的目标人脸进行人脸对齐,同时通过仿射变换截取仅包含人脸区域的人脸图像,并将人脸图像调整到预设尺寸。
在一些可能的实现方式中,对人脸图像进行归一化处理可以是对人脸图像中每个像素的像素值减128再除以256,使每个像素的像素值在[-0.5,0.5]之间。
经过预处理可以将训练人物图像中非人脸区域进行剔除,减少非人脸区域对人脸活体检测的影响,同时,通过归一化可以减少光线等对训练人脸图像的影响,提升获取的活体检测结果的准确性。
在一些可能的实现方式中,还可以使用数据增加的方法对训练人脸图像进行扩充。本公开实施例对数据增强的方法并不做限定。
如上所述,在一些可能的实现方式中,如图2所示,第一卷积神经网络模块CM1还连接第二卷积神经网络模块CM2,第二卷积神经网络模块CM2还连接第三卷积神经网络模块CM3。
也就是说,第二卷积神经网络模块CM2的输入还包括第一卷积神经网络模块CM1的输出;第三卷积神经网络模块CM3的输入还包括第二卷积神经网络模块CM2的输出。
通过卷积神经网络模块之间的连接可以将底层的卷积神经网络模块(如第一卷积神经网络模块CM1)提取的底层特征信息传播至高层的卷积神经网络模块(如第三卷积神经网络模块CM3),提升了高层的卷积神经网络模块获取的特征的丰富度。
在一些可能的实现方式中,第一卷积神经网络模块CM1可以由多个卷积层组成,第二卷积神经网络模块CM2和第三卷积神经网络模块CM3可以由多个ResNetBlock(残差网络块)组成。
相比于普通的卷积层,ResNetBlock容易优化,并且能够缓解在深度神经网络中增加深度带来的梯度消失问题,因此,相比于普通的卷积层,ResNetBlock更加适合作为高层的卷积神经网络。
经过实验,通过2个卷积层组成第一卷积神经网络模块CM1、通过4个ResNetBlock组成第二卷积神经网络模块CM2和第三卷积神经网络模块CM3,进而组成人脸活体检测模型的性能最好。
在一些可能的实现方式中,如图2所示,人脸活体检测模型还包括由全连接层组成分类模块,其用于根据交替连接的卷积神经网络模块和视觉自注意力模块提取的特征获取活体检测结果。
在一些具体的实现方式中,根据训练人脸图像以及训练人脸图像对应的活体检测标签对人脸活体检测模型进行训练的具体过程可以包括:
将训练人脸图像输入由2个卷积层组成的第一卷积神经网络模块CM1,在第一卷积神经网络模块CM1的第2个卷积层进行下采样操作,提取训练人脸图像的底层特征信息;
然后将第一卷积神经网络模块CM1提取的特征图输入由3个ViT结构组成的第一视觉自注意力模块VM1,第一卷积神经网络模块CM1和第一视觉自注意力模块VM1输出的特征进行相加操作输入到由4个Resnet Block组成的第二卷积神经网络模块CM2中,同样的,在第二卷积神经网络模块CM2的最后一个卷积层进行下采样操作;
然后将第二卷积神经网络模块CM2提取的特征图输入到由3个ViT结构组成的第二视觉自注意力模块VM2中。第二卷积神经网络模块CM2和第二视觉自注意力模块VM2得到的特征进行相加操作输入到由4个ResnetBlock组成的第三卷积神经网络模块CM3中,同样的,在最后一个卷积层进行下采样操作;
最后将第三卷积神经网络模块CM3提取的特征图输入到3个ViT结构组成的第三视觉自注意力模块VM3中,根据第三视觉自注意力模块VM3输出的特征(具体可以是ClassToken),使用全连接层FC1得到最终活体检测结果,根据最终的活体检测结果和训练人脸图像对应的活体检测标签确定网络损失,对人脸活体检测的参数进行修改。
如上所述,在一些可能的实现方式中,人脸活体检测模型可以通过冻结模块的参数的方法进行训练,以方便卷积神经网络模块和视觉自注意力模块更好的学习图像的不同特征。
图6是示出了通过冻结模块的参数的方法进行模型训练的一种实现方式的流程示意图,如图6中所示,通过冻结模块的参数的方法进行模型训练可以包括步骤S610、步骤S620、步骤S630。
在步骤S610中,在冻结人脸活体检测模型的视觉自注意力模块的参数的情况下,将训练人脸图像输入人脸活体检测模型对应的预训练模型,根据人脸活体检测模型的卷积神经网络模块连接的全连接层输出的结果与训练人脸图像对应的活体检测标签对人脸活体检测模型对应的预训练模型进行训练,获取第一训练模型;
在步骤S620中,在冻结第一训练模型的卷积神经网络模块的参数的情况下,将训练人脸图像输入第一训练模型,根据第一训练模型的视觉自注意力模块连接的全连接层输出的结果与训练人脸图像对应的活体检测标签对第一训练模型进行训练,获取第二训练模型;
在步骤S630中,将训练人脸图像输入第二训练模型,根据第二训练模型的视觉自注意力模块连接的全连接层输出的结果与训练人脸图像对应的活体检测标签对第二训练模型进行训练,获取训练完成的人脸活体检测模型。
在训练过程中,先冻结所有视觉自注意力模块的参数,使用训练人脸图像以及训练人脸图像对应的活体检测标签对人脸活体检测模型对应的预训练模型进行训练,获取第一训练模型。
其中,人体活体检测模型对应的预训练模型与人体活体检测模型的主题结构一致,也是包括交替连接的多个卷积神经网络模块和视觉自注意力模块,不同的是,最后一个卷积神经网络模块连接全连接层FC2,获取活体检测结果,根据活体检测结果和训练人脸图像对应的活体检测标签确定网络损失,根据网络损失对体活体检测模型对应的预训练模型的卷积神经网络模块的参数进行修改。
再冻结第一训练模型的卷积神经网络模块的参数,使用训练人脸图像以及训练人脸图像对应的活体检测标签对第一训练模型进行训练,获取第二训练模型。
其中,第一训练模型与人体活体检测模型结构一致,根据第一训练模型的全连接层FC1输出的获取活体检测结果,根据活体检测结果和训练人脸图像对应的活体检测标签确定网络损失,根据网络损失对第一训练模型的视觉自注意力模块的参数进行修改。
最后使用训练人脸图像以及训练人脸图像对应的活体检测标签对第二训练模型进行训练,获取训练完成的人脸活体检测模型。
其中,第二训练模型与人体活体检测模型结构一致,根据第二训练模型的全连接层FC1输出的获取活体检测结果,根据活体检测结果和训练人脸图像对应的活体检测标签确定网络损失,根据网络损失对第二训练模型的卷积神经网络模块和视觉自注意力模块的参数进行修改。
通过分别冻结卷积神经网络模块和视觉自注意力模块的参数,可以使卷积神经网络模块和视觉自注意力模块分别各自学习待识别人脸图像的特征,避免卷积神经网络模块和视觉自注意力模块学习图像特征过程的互相干扰,帮助卷积神经网络模块和视觉自注意力模块学习到更加好的特征。
在一些可能的实现方式中,人脸活体检测模型对应的预训练模型和第一训练模型的训练数据是不同的。
使用平面攻击图像以及平面攻击图像对应的活体检测标签对人脸活体检测模型对应的预训练模型进行训练获取第一训练模型。
使用立体攻击图像以及立体攻击图像对应的活体检测标签对第一训练模型进行训练获取第二训练模型。
由于识别屏幕攻击、纸质攻击等平面攻击需要提取图像的底层特征、局部特征,因此在冻结所有视觉自注意力模块的参数的情况下,使用平面攻击图像以及平面攻击图像对应的活体检测标签对人脸活体检测模型对应的预训练模型进行训练,可以使卷积神经网络模块学习提取底层特征、局部特征。
而识别头套攻击、头模攻击等立体攻击需要提取图像的高层语义特征、全局特征,因此在冻结所有卷积神经网络模块的参数的情况下,使用立体攻击图像以及立体攻击图像对应的活体检测标签对第一训练模型进行训练,可以使视觉自注意力模块学习提取高层语义特征、全局特征。
最后使用所有数据对第二训练模型进行训练,可以使卷积神经网络模块提取的特征和视觉自注意力模块提取的特征充分融合。
通过这样的训练方式,可以使人脸活体检测模型同时获取底层特征和高层语义特征,以及同时获取局部特征和全局特征,并将获取的特征进行充分的融合,提升提取的特征的丰富度,提升了人脸活体检测模型对多种攻击的泛化性和准确性。
基于与图1中所示的方法相同的原理,图7示出了本公开实施例提供的一种人脸活体检测装置的结构示意图,如图7所示,该人脸活体检测装置70可以包括:
测试数据模块710,用于获取待识别人脸图像;
推理模块720,用于将待识别人脸图像输入预先训练的人脸活体检测模型获取活体检测结果;
其中,人脸活体检测模型包括多个卷积神经网络模块和多个视觉自注意力模块,卷积神经网络模块和视觉自注意力模块交替连接。
在本公开实施例提供的人脸活体检测装置中,通过由交替连接的卷积神经网络模块和视觉自注意力模块组成的人脸活体检测模型对待识别人脸图像进行检测获取活体检测结果,由于卷积神经网络模块和视觉自注意力模块是不同的特征提取模块,可以提取不同的图像特征,获取人脸活体检测所需要的多种特征,提升人脸活体检测模型对各种攻击的泛化性和鲁棒性。同时,卷积神经网络模块和视觉自注意力模块交替连接,可以将卷积神经网络模块和视觉自注意力模块提取的特征进行充分的融合,进一步提升获取的特征的丰富性,提升人脸活体检测模型对各种攻击的泛化性和鲁棒性。因此,使用本公开实施例提供的人脸活体检测装置获取的活体检测结果的准确性更高。
可以理解的是,本公开实施例中的人脸活体检测装置的上述各模块具有实现图1中所示的实施例中的人脸活体检测方法相应步骤的功能。该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。上述模块可以是软件和/或硬件,上述各模块可以单独实现,也可以多个模块集成实现。对于上述人脸活体检测装置的各模块的功能描述具体可以参见图1中所示实施例中的人脸活体检测方法的对应描述,在此不再赘述。
基于与图5中所示的方法相同的原理,图8示出了本公开实施例提供的一种人脸活体检测模型的训练装置的结构示意图,如图8所示,该人脸活体检测模型的训练装置80可以包括:
训练数据模块810,用于获取多个训练人脸图像以及训练人脸图像对应的活体检测标签;
训练模块820,用于根据训练人脸图像以及训练人脸图像对应的活体检测标签对人脸活体检测模型进行训练;
其中,人脸活体检测模型包括多个卷积神经网络模块和多个视觉自注意力模块,卷积神经网络模块和视觉自注意力模块交替连接。
在本公开实施例提供的人脸活体检测模型的训练装置中,由交替连接的卷积神经网络模块和视觉自注意力模块组的人脸活体检测模型,由于卷积神经网络模块和视觉自注意力模块是不同的特征提取模块,可以提取不同的图像特征,进而获取人脸活体检测所需要的多种特征,提升人脸活体检测模型对各种攻击的泛化性和鲁棒性。同时,卷积神经网络模块和视觉自注意力模块交替连接,可以将卷积神经网络模块和视觉自注意力模块提取的特征进行充分的融合,进一步提升获取的特征的丰富性,提升人脸活体检测模型对各种攻击的泛化性和鲁棒性。因此,使用本公开实施例提供的人脸活体检测模型的训练装置获取的人脸活体检测模型的性能更好。
可以理解的是,本公开实施例中的人脸活体检测模型的训练装置的上述各模块具有实现图5中所示的实施例中的人脸活体检测模型的训练方法相应步骤的功能。该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。上述模块可以是软件和/或硬件,上述各模块可以单独实现,也可以多个模块集成实现。对于上述人脸活体检测模型的训练装置的各模块的功能描述具体可以参见图5中所示实施例中的人脸活体检测模型的训练方法的对应描述,在此不再赘述。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
该电子设备包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如本公开实施例提供的人脸活体检测方法和人脸活体检测模型的训练方法。
该电子设备与现有技术相比通过由交替连接的卷积神经网络模块和视觉自注意力模块组成的人脸活体检测模型对待识别人脸图像进行检测获取活体检测结果,由于卷积神经网络模块和视觉自注意力模块是不同的特征提取模块,可以提取不同的图像特征,获取人脸活体检测所需要的多种特征,提升人脸活体检测模型对各种攻击的泛化性和鲁棒性。同时,卷积神经网络模块和视觉自注意力模块交替连接,可以将卷积神经网络模块和视觉自注意力模块提取的特征进行充分的融合,进一步提升获取的特征的丰富性,提升人脸活体检测模型对各种攻击的泛化性和鲁棒性。因此,使用本公开实施例提供的电子设备获取的活体检测结果的准确性更高。
该可读存储介质为存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行如本公开实施例提供的人脸活体检测方法和人脸活体检测模型的训练方法。
该可读存储介质与现有技术相比,通过由交替连接的卷积神经网络模块和视觉自注意力模块组成的人脸活体检测模型对待识别人脸图像进行检测获取活体检测结果,由于卷积神经网络模块和视觉自注意力模块是不同的特征提取模块,可以提取不同的图像特征,获取人脸活体检测所需要的多种特征,提升人脸活体检测模型对各种攻击的泛化性和鲁棒性。同时,卷积神经网络模块和视觉自注意力模块交替连接,可以将卷积神经网络模块和视觉自注意力模块提取的特征进行充分的融合,进一步提升获取的特征的丰富性,提升人脸活体检测模型对各种攻击的泛化性和鲁棒性。因此,使用本公开实施例提供的可读存储介质获取的活体检测结果的准确性更高。
该计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如本公开实施例提供的人脸活体检测方法和人脸活体检测模型的训练方法。
该计算机程序产品与现有技术相比,通过由交替连接的卷积神经网络模块和视觉自注意力模块组成的人脸活体检测模型对待识别人脸图像进行检测获取活体检测结果,由于卷积神经网络模块和视觉自注意力模块是不同的特征提取模块,可以提取不同的图像特征,获取人脸活体检测所需要的多种特征,提升人脸活体检测模型对各种攻击的泛化性和鲁棒性。同时,卷积神经网络模块和视觉自注意力模块交替连接,可以将卷积神经网络模块和视觉自注意力模块提取的特征进行充分的融合,进一步提升获取的特征的丰富性,提升人脸活体检测模型对各种攻击的泛化性和鲁棒性。因此,使用本公开实施例提供的计算机程序产品获取的活体检测结果的准确性更高。
图9示出了可以用来实施本公开的实施例的示例电子设备900的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图9所示,设备900包括计算单元901,其可以根据存储在只读存储器(ROM)902中的计算机程序或者从存储单元908加载到随机访问存储器(RAM)903中的计算机程序,来执行各种适当的动作和处理。在RAM903中,还可存储设备900操作所需的各种程序和数据。计算单元901、ROM902以及RAM903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
设备900中的多个部件连接至I/O接口905,包括:输入单元906,例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等;存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元901可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元901的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元901执行上文所描述的各个方法和处理,例如人脸活体检测方法和/或人脸活体检测模型的训练方法。例如,在一些实施例中,人脸活体检测方法和/或人脸活体检测模型的训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元908。在一些实施例中,计算机程序的部分或者全部可以经由ROM902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序加载到RAM903并由计算单元901执行时,可以执行上文描述的人脸活体检测方法和/或人脸活体检测模型的训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元901可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行人脸活体检测方法和/或人脸活体检测模型的训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (20)
1.一种人脸活体检测的方法,包括:
获取待识别人脸图像;
将所述待识别人脸图像输入预先训练的人脸活体检测模型获取活体检测结果;
其中,所述人脸活体检测模型包括多个卷积神经网络模块和多个视觉自注意力模块,所述卷积神经网络模块和所述视觉自注意力模块交替连接。
2.根据权利要求1所述的方法,其中,所述人脸活体检测模型包括依次连接的第一卷积神经网络模块、第一视觉自注意力模块、第二卷积神经网络模块、第二视觉自注意力模块、第三卷积神经网络模块、第三视觉自注意力模块。
3.根据权利要求2所述的方法,其中,所述第一卷积神经网络模块连接所述第二卷积神经网络模块;所述第二卷积神经网络模块连接所述第三卷积神经网络模块。
4.根据权利要求2所述的方法,其中,所述第一卷积神经网络模块包括多个卷积层;所述第二卷积神经网络模块包括多个残差网络块;所述第三卷积神经网络包括多个残差网络块。
5.根据权利要求2所述的方法,其中,所述第三视觉自注意力模块连接全连接层;
所述将所述待识别人脸图像输入预先训练的人脸活体检测模型获取活体检测结果,包括:
将所述待识别人脸图像输入所述第一卷积神经网络模块,根据所述全连接层的输出确定所述活体检测结果。
6.根据权利要求1所述的方法,其中,所述人脸活体检测模型通过使用多个训练人脸图像和所述训练人脸图像对应的活体检测标签对第二训练模型进行训练获取;
所述第二训练模型通过在冻结所述卷积神经网络模块的参数的情况下,使用所述训练人脸图像以及所述训练人脸图像对应的活体检测标签对第一训练模型进行训练获取;
所述第一训练模型通过在冻结所述视觉自注意力模块的参数的情况下,使用所述训练人脸图像以及所述训练人脸图像对应的活体检测标签对所述人脸活体检测模型对应的预训练模型进行训练获取。
7.根据权利要求6所述的方法,其中,所述多个训练人脸图像包括平面攻击图像和立体攻击图像;
所述第二训练模型通过在冻结所述卷积神经网络模块的参数的情况下,使用所述立体攻击图像以及所述立体攻击图像对应的活体检测标签对所述第一训练模型进行训练获取;
所述第一训练模型通过在冻结所述视觉自注意力模块的参数的情况下,使用所述平面攻击图像以及所述平面攻击图像对应的活体检测标签对所述人脸活体检测模型对应的预训练模型进行训练获取。
8.根据权利要求1所述的方法,其中,所述获取待识别人脸图像包括:
获取待识别人物图像,对所述待识别人物图像进行人脸检测,获取所述待识别人物图像的人脸区域;
对所述人脸区域进行人脸关键点检测,获取人脸关键点坐标;
根据所述人脸关键点坐标对所述人脸区域进行人脸对齐,并通过仿射变换获取预设尺寸的人脸图像;
对所述人脸图像进行归一化处理,获取所述待识别人脸图像。
9.一种人脸活体检测模型的训练方法,包括:
获取多个训练人脸图像以及所述训练人脸图像对应的活体检测标签;
根据所述训练人脸图像以及所述训练人脸图像对应的活体检测标签对所述人脸活体检测模型进行训练;
其中,所述人脸活体检测模型包括多个卷积神经网络模块和多个视觉自注意力模块,所述卷积神经网络模块和所述视觉自注意力模块交替连接。
10.根据权利要求9所述的方法,其中,所述人脸活体检测模型包括依次连接的第一卷积神经网络模块、第一视觉自注意力模块、第二卷积神经网络模块、第二视觉自注意力模块、第三卷积神经网络模块、第三视觉自注意力模块。
11.根据权利要求10所述的方法,其中,所述第一卷积神经网络模块连接所述第二卷积神经网络模块;所述第二卷积神经网络模块连接所述第三卷积神经网络模块。
12.根据权利要求10所述的方法,其中,所述第一卷积神经网络模块包括多个卷积层;所述第二卷积神经网络模块包括多个残差网络块;所述第三卷积神经网络包括多个残差网络块。
13.根据权利要求10所述的方法,其中,所述第三视觉自注意力模块连接全连接层;
所述根据所述训练人脸图像以及所述训练人脸图像对应的活体检测标签对所述人脸活体检测模型进行训练,包括:
将所述训练人脸图像输入所述第一卷积神经网络模块,根据所述全连接层的输出与所述训练人脸图像对应的活体检测标签对所述人脸活体检测模型进行训练。
14.根据权利要求9所述的方法,其中,所述根据所述训练人脸图像以及所述训练人脸图像对应的活体检测标签对所述人脸活体检测模型进行训练,包括:
在冻结所述人脸活体检测模型对应的预训练模型的视觉自注意力模块的参数的情况下,将所述训练人脸图像输入所述人脸活体检测模型对应的预训练模型,根据所述人脸活体检测模型的卷积神经网络模块连接的全连接层输出的结果与所述训练人脸图像对应的活体检测标签对所述人脸活体检测模型对应的预训练模型进行训练,获取第一训练模型;
在冻结所述第一训练模型的卷积神经网络模块的参数的情况下,将所述训练人脸图像输入所述第一训练模型,根据所述第一训练模型的视觉自注意力模块连接的全连接层输出的结果与所述训练人脸图像对应的活体检测标签对所述第一训练模型进行训练,获取第二训练模型;
将所述训练人脸图像输入所述第二训练模型,根据所述第二训练模型的视觉自注意力模块连接的全连接层输出的结果与所述训练人脸图像对应的活体检测标签对所述第二训练模型进行训练,获取训练完成的人脸活体检测模型。
15.根据权利要求14所述的方法,其中,所述多个训练人脸图像包括平面攻击图像和立体攻击图像;
在冻结所述人脸活体检测模型对应的预训练模型的视觉自注意力模块的参数的情况下,将所述训练人脸图像输入所述人脸活体检测模型对应的预训练模型,根据所述人脸活体检测模型的卷积神经网络模块连接的全连接层输出的结果与所述训练人脸图像对应的活体检测标签对所述人脸活体检测模型对应的预训练模型进行训练,获取第一训练模型,包括:
在冻结所述人脸活体检测模型对应的预训练模型的视觉自注意力模块的参数的情况下,将所述平面攻击图像输入所述人脸活体检测模型对应的预训练模型,根据所述人脸活体检测模型的卷积神经网络模块连接的全连接层输出的结果与所述平面攻击图像对应的活体检测标签对所述人脸活体检测模型进行训练,获取第一训练模型;
所述在冻结所述第一训练模型的卷积神经网络模块的参数的情况下,将所述训练人脸图像输入所述第一训练模型,根据所述第一训练模型的视觉自注意力模块连接的全连接层输出的结果与所述训练人脸图像对应的活体检测标签对所述第一训练模型进行训练,获取第二训练模型,包括:
在冻结所述第一训练模型的卷积神经网络模块的参数的情况下,将所述立体攻击图像输入所述第一训练模型,根据所述第一训练模型的视觉自注意力模块连接的全连接层输出的结果与所述立体攻击图像对应的活体检测标签对所述第一训练模型进行训练,获取第二训练模型。
16.一种人脸活体检测的装置,包括:
测试数据模块,用于获取待识别人脸图像;
推理模块,用于将所述待识别人脸图像输入预先训练的人脸活体检测模型获取活体检测结果;
其中,所述人脸活体检测模型包括多个卷积神经网络模块和多个视觉自注意力模块,所述卷积神经网络模块和所述视觉自注意力模块交替连接。
17.一种人脸活体检测模型的训练装置,包括:
训练数据模块,用于获取多个训练人脸图像以及所述训练人脸图像对应的活体检测标签;
训练模块,用于根据所述训练人脸图像以及所述训练人脸图像对应的活体检测标签对所述人脸活体检测模型进行训练;
其中,所述人脸活体检测模型包括多个卷积神经网络模块和多个视觉自注意力模块,所述卷积神经网络模块和所述视觉自注意力模块交替连接。
18.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法或9-15中任一项所述的方法。
19.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-8中任一项所述的方法或9-15中任一项所述的方法。
20.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-8中任一项所述的方法或9-15中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310779602.0A CN116863521A (zh) | 2023-06-28 | 2023-06-28 | 人脸活体检测方法、模型训练方法、装置、设备、介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310779602.0A CN116863521A (zh) | 2023-06-28 | 2023-06-28 | 人脸活体检测方法、模型训练方法、装置、设备、介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116863521A true CN116863521A (zh) | 2023-10-10 |
Family
ID=88233310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310779602.0A Pending CN116863521A (zh) | 2023-06-28 | 2023-06-28 | 人脸活体检测方法、模型训练方法、装置、设备、介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116863521A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117746482A (zh) * | 2023-12-20 | 2024-03-22 | 北京百度网讯科技有限公司 | 人脸检测模型的训练方法、检测方法、装置及设备 |
-
2023
- 2023-06-28 CN CN202310779602.0A patent/CN116863521A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117746482A (zh) * | 2023-12-20 | 2024-03-22 | 北京百度网讯科技有限公司 | 人脸检测模型的训练方法、检测方法、装置及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113033465B (zh) | 活体检测模型训练方法、装置、设备以及存储介质 | |
US11830230B2 (en) | Living body detection method based on facial recognition, and electronic device and storage medium | |
WO2023160312A1 (zh) | 基于自监督学习的行人重识别方法、装置、设备及存储介质 | |
JP2022133378A (ja) | 顔生体検出方法、装置、電子機器、及び記憶媒体 | |
WO2019169884A1 (zh) | 基于深度信息的图像显著性检测方法和装置 | |
CN113378712B (zh) | 物体检测模型的训练方法、图像检测方法及其装置 | |
CN113205041B (zh) | 结构化信息提取方法、装置、设备和存储介质 | |
CN113221767B (zh) | 训练活体人脸识别模型、识别活体人脸的方法及相关装置 | |
US20220027661A1 (en) | Method and apparatus of processing image, electronic device, and storage medium | |
WO2022227765A1 (zh) | 生成图像修复模型的方法、设备、介质及程序产品 | |
CN113221771A (zh) | 活体人脸识别方法、装置、设备、存储介质及程序产品 | |
CN115880415A (zh) | 三维重建方法、装置、电子设备及存储介质 | |
CN111862030A (zh) | 一种人脸合成图检测方法、装置、电子设备及存储介质 | |
CN116863521A (zh) | 人脸活体检测方法、模型训练方法、装置、设备、介质 | |
CN113569707A (zh) | 活体检测方法、装置、电子设备以及存储介质 | |
CN117437624B (zh) | 违禁品检测方法、装置及电子设备 | |
WO2024198475A1 (zh) | 人脸活体识别方法、装置、电子设备及存储介质 | |
CN116740498B (zh) | 模型预训练方法、模型训练方法、对象处理方法及装置 | |
CN113537309B (zh) | 一种对象识别方法、装置及电子设备 | |
CN113255512B (zh) | 用于活体识别的方法、装置、设备以及存储介质 | |
CN112991451B (zh) | 图像识别方法、相关装置及计算机程序产品 | |
CN115937993A (zh) | 活体检测模型训练方法、活体检测方法、装置和电子设备 | |
CN115205939B (zh) | 人脸活体检测模型训练方法、装置、电子设备及存储介质 | |
CN114067394A (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
CN118379583B (zh) | 对抗样本生成方法、设备、存储介质及计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |