CN109446981B - 一种脸部活体检测、身份认证方法及装置 - Google Patents
一种脸部活体检测、身份认证方法及装置 Download PDFInfo
- Publication number
- CN109446981B CN109446981B CN201811251558.1A CN201811251558A CN109446981B CN 109446981 B CN109446981 B CN 109446981B CN 201811251558 A CN201811251558 A CN 201811251558A CN 109446981 B CN109446981 B CN 109446981B
- Authority
- CN
- China
- Prior art keywords
- face
- living body
- heat
- face image
- thermal infrared
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Processing (AREA)
Abstract
本发明实施例公开了一种脸部活体检测、身份认证方法及装置;本发明实施例获取待检测对象的脸部图像,该脸部图像包括热红外脸部图像和可见光脸部图像;从可见光脸部图像中检测出脸部区域;然后根据脸部区域在热红外脸部图像中的对应位置得到脸部热量信息;根据脸部热量信息确定脸部是否为活体。本方案根据从可见光脸部图像中检测出的脸部区域,确定热红外脸部图像中的脸部热量区域,可以提高热红外脸部图像中的脸部热量区域的检测精度,并且该方案是根据热红外脸部图像中的脸部热量信息判断脸部是否为活体,可以有效识别假冒人脸,提高脸部活体检测的准确性。
Description
技术领域
本发明涉及活体识别领域,具体涉及一种脸部活体检测、身份认证方法及装置。
背景技术
随着人脸识别准确性的不断提升,人脸识别已经广泛应用于考勤、门禁、屏幕解锁、安防、公安、甚至是支付等领域。由于人脸脸部是一种外在属性,自己的脸部图像很容易被他人获取,而常用的人脸识别算法是从脸部图像中提取特征进而用于人脸比对,如果不采取防范措施,人脸识别系统就很容易被欺骗,常见的欺骗手段有照片、视频回放、三维(3D,3Dimensions)人脸模型、3D人脸面具或头套等。
现有技术中,一般根据获取到的深度脸部图像中脸部区域的深度信息进行脸部的活体检测,该方案直接根据深度脸部图像确定脸部区域,脸部区域的精度不高,且虽然对于照片、视频等平面假冒人脸,很容易就可以根据深度信息判断该人脸是否为活体人脸,但是对于3D人脸模型、3D人脸面具或头套等立体假冒人脸,若单纯地根据获取到的脸部图像的深度信息去检测,会很容易产生误判,导致脸部活体检测的准确性低。
发明内容
本发明实施例提供一种脸部活体检测、身份认证方法及装置,可以提高脸部活体检测的准确性。
本发明实施例提供一种脸部活体检测方法,包括:
获取待检测对象的脸部图像,所述脸部图像包括热红外脸部图像和可见光脸部图像;
从所述可见光脸部图像中检测出脸部区域;
根据所述脸部区域在所述热红外脸部图像中确定与所述脸部区域对应的热量检测区域;
对所述热量检测区域进行热红外检测,得到脸部热量信息;
根据所述脸部热量信息确定脸部是否为活体。
相应的,本发明实施例还提供了一种脸部活体检测装置,包括:
脸部图像获取单元,用于获取待检测对象的脸部图像,所述脸部图像包括热红外脸部图像和可见光脸部图像;
脸部区域检测单元,用于从所述可见光脸部图像中检测出脸部区域;
热量检测区域确定单元,用于根据所述脸部区域在所述热红外脸部图像中确定与所述脸部区域对应的热量检测区域;
热红外检测单元,用于对所述热量检测区域进行热红外检测,得到脸部热量信息;
活体确定单元,用于根据所述脸部热量信息确定脸部是否为活体。
在一些实施例中,所述脸部热量信息包括热量分布信息和呼吸频率信息,所述活体确定单元包括:
第一热量特征活体确定子单元,用于确定所述热量分布信息是否符合活体脸部的热量分布特征,得到热量特征活体结果;
第一呼吸特征活体确定子单元,用于根据预设呼吸频率范围确定所述呼吸频率信息是否符合活体脸部的呼吸特征,得到呼吸特征活体结果;
第一活体确定子单元,用于根据所述热量特征活体结果以及所述呼吸特征活体结果确定所述脸部是否为活体。
在一些实施例中,所述热量特征活体确定子单元具体用于,采用训练后的分布特征识别网络模型确定所述热量分布信息是否符合活体脸部的热量分布特征。
在一些实施例中,所述脸部活体检测装置还包括:
正例样本采集单元,用于采集活体脸部的热红外脸部图像,得到正例样本;
负例样本采集单元,用于采集非活体脸部的热红外脸部图像,得到负例样本;
模型训练单元,用于根据所述正例样本以及所述负例样本对预设分布特征识别网络模型进行训练,得到所述训练后的分布特征识别网络模型。
在一些实施例中,所述模型训练单元具体用于:
根据所述正例样本以及所述负例样本对所述预设分布特征识别网络模型进行训练,得到所述正例样本以及所述负例样本的活体预测值;
获取所述正例样本以及所述负例样本的活体真实值,对所述活体真实值和所述活体预测值进行收敛,得到所述训练后的分布特征识别网络模型。
在一些实施例中,所述第一热量特征活体确定子单元包括:
活体值预测模块,用于根据所述训练后的分布特征识别网络模型预测所述热量分布信息的活体值;
热量特征活体确定模块,用于根据所述活体值以及预设活体值确定所述热量分布信息是否符合活体脸部的热量分布特征。
在一些实施例中,所述热红外检测单元包括:
待检测热量区域确定子单元,用于确定所述热红外脸部图像中的待检测热量区域,所述待检测热量区域中包括多个检测点;
温度和获取子单元,用于获取预设时间段内所述检测点的温度和;
呼吸频率信息确定子单元,用于根据所述温度和,以及所述预设时间段确定所述呼吸频率信息。
在一些实施例中,所述呼吸频率信息确定子单元,包括:
呼吸曲线生成模块,用于根据所述温度和,以及与所述温度和对应的所述热红外脸部图像的获取时间生成呼吸曲线;
极点数获取模块,用于获取所述呼吸曲线中的极点个数,所述极点个数包括极大值点的个数或极小值点的个数;
呼吸频率信息确定模块,用于根据所述预设时间段以及所述极点个数确定所述呼吸频率信息。
在一些实施例中,所述待检测热量区域确定子单元包括:
位置信息获取模块,用于获取预设特征部位在所述可见光脸部图像中的位置信息;
待检测热量区域形成模块,用于根据所述位置信息在所述热红外脸部图像中形成所述待检测热量区域。
在一些实施例中,所述图像还包括深度脸部图像;所述脸部活体检测装置还包括:
深度检测区域确定单元,用于根据所述脸部区域在所述深度脸部图像中确定深度检测区域;
深度检测单元,用于对所述深度检测区域进行深度检测,得到深度信息;
所述活体确定单元具体用于:
根据所述脸部热量信息以及所述深度信息确定所述脸部是否为活体。
在一些实施例中,所述脸部热量信息包括热量分布信息和呼吸频率信息;
所述活体确定单元包括:
第二热量特征活体确定子单元,用于确定所述热量分布信息是否符合活体脸部的热量分布特征,得到热量特征活体结果;
第二呼吸特征活体确定子单元,用于根据预设呼吸频率范围确定所述呼吸频率信息是否符合活体脸部的呼吸特征,得到呼吸特征活体结果;
深度特征活体确定子单元,用于确定所述深度信息是否符合活体脸部的深度特征,得到深度特征活体结果;
第二活体确定子单元,用于根据所述热量特征活体结果、所述呼吸特征活体结果以及所述深度特征活体结果确定所述待检测对象的脸部是否为活体。
在一些实施例中,所述脸部活体检测装置还包括:
人脸特征确定单元,用于在所述获取待检测对象的脸部图像之后,根据所述可见光脸部图像确定采集到的所述脸部图像是否具备人脸特征。
热量检测区域确定单元具体用于:
若所述脸部图像具备人脸特征,则对所述热量检测区域进行热红外检测。
本发明实施例还提供一种身份认证方法,包括:
获取待检测对象的脸部图像,所述脸部图像包括热红外脸部图像和可见光脸部图像;
从所述可见光脸部图像中检测出脸部区域;
根据所述脸部区域在所述热红外脸部图像中确定与所述脸部区域对应的热量检测区域;
对所述热量检测区域进行热红外检测,得到脸部热量信息;
根据所述脸部热量信息确定脸部是否为活体;
当所述脸部为活体时,则根据所述可见光脸部图像对所述待检测对象进行身份认证。
本发明实施例还提供一种脸部活体检测方法,包括:
相应的,本发明实施例还提供了一种身份认证装置,包括:
脸部图像获取单元,用于获取待检测对象的脸部图像,所述脸部图像包括热红外脸部图像和可见光脸部图像;
脸部区域检测单元,用于从所述可见光脸部图像中检测出脸部区域;
热量检测区域确定单元,用于根据所述脸部区域在所述热红外脸部图像中确定与所述脸部区域对应的热量检测区域;
热红外检测单元,用于对所述热量检测区域进行热红外检测,得到脸部热量信息;
活体确定单元,用于根据所述脸部热量信息确定脸部是否为活体;
身份认证单元,用于当所述脸部为活体时,则根据所述可见光脸部图像对所述待检测对象进行身份认证。
本发明实施例获取待检测对象的脸部图像,该脸部图像包括热红外脸部图像和可见光脸部图像;从可见光脸部图像中检测出脸部区域;然后根据脸部区域在热红外脸部图像中确定与所述脸部区域对应的热量检测区域;对热量检测区域进行热红外检测,得到脸部热量信息;根据脸部热量信息确定脸部是否为活体。本方案根据从可见光脸部图像中检测出的脸部区域,确定热红外脸部图像中的热量检测区域,可以提高热红外脸部图像中的热量检测区域的精度,并且该方案是根据热红外脸部图像中的脸部热量信息判断脸部是否为活体,可以有效识别假冒人脸,提高脸部活体检测的准确性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1a是本发明实施例提供的数据处理系统的一种场景示意图;
图1b是本发明实施例提供的数据处理系统的另一种场景示意图;
图1c是本发明实施例提供的脸部活体检测方法的第一种流程示意图;
图1d是本发明实施例提供的呼吸曲线的一种示意图;
图1e是本发明实施例提供的卷积神经网络模型的结构示意图;
图2是本发明实施例提供的脸部活体检测方法的第二种流程示意图;
图3是本发明实施例提供的脸部活体检测方法的第三种流程示意图;
图4是本发明实施例提供的身份认证方法的一种流程示意图;
图5a是本发明实施例提供的脸部活体检测装置的第一种结构示意图;
图5b是本发明实施例提供的脸部活体检测装置的第二种结构示意图;
图5c是本发明实施例提供的脸部活体检测装置的第三种结构示意图;
图5d是本发明实施例提供的脸部活体检测装置的第四种结构示意图;
图5e是本发明实施例提供的脸部活体检测装置的第五种结构示意图;
图5f是本发明实施例提供的脸部活体检测装置的第六种结构示意图;
图5g是本发明实施例提供的脸部活体检测装置的第七种结构示意图;
图5h是本发明实施例提供的脸部活体检测装置的第八种结构示意图;
图5i是本发明实施例提供的脸部活体检测装置的第九种结构示意图;
图6是本发明实施例提供的身份认证装置的第十种结构示意图;
图7是本发明实施例提供的服务器的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供一种数据处理系统系统,该系统包括本发明实施例任一提供的脸部活体检测装置,该脸部活体检测装置可以集成在服务器等设备中;此外,该系统还可以包括其他设备,比如,采集终端和命令终端,其中,该采集终端可以为带有摄像头的终端,如相机、手机、平板电脑、考勤机、门禁机等,命令终端可以为带有命令功能的手机(如支付功能)、平板电脑(如支付功能)、考勤机(考勤功能)、门禁机(开关门功能)等。
需要说明的是,本申请提供的系统的采集终端和命令终端可以为同一终端,例如可以用手机采集脸部图像,也通过该手机实现命令功能;也可以为不同终端,例如通过相机采集脸部图像,但通过门禁机实现命令功能。
本发明实施例提供了一种数据处理系统,包括:采集终端、服务器和命令终端,采集终端与服务器通过网络连接,服务器与命令终端通过网络连接。其中,网络中包括路由器、网关等等网络实体。采集终端可以通过有线网络、无线网络蓝牙等与服务器进行信息交互,服务器可以通过有线网络、无线网络蓝牙等与命令终端进行信息交互。其中,采集终端可以为带有摄像头的手机、平板电脑、笔记本电脑、考勤机、门禁机等设备,命令终端可以为带有命令功能的手机、平板电脑、考勤机、门禁机等设备。
基于上述系统,采集终端可以通过摄像头获取待检测对象的脸部图像,该摄像头至少包括可见光摄像头(如RGB色彩模式(RGB,Red Green Blue)摄像头)和热红外摄像头,其中,采集终端通过可见光摄像头采集脸部图像中的可见光脸部图像,并同时通过热红外摄像头采集脸部图像中的热红外脸部图像,终端采集到脸部图像之后,将实时地将采集到的脸部图像发送至服务器中,服务器可以根据获取到的脸部图像对脸部进行活体判断,具体地,服务器从该可见光脸部图像中检测出脸部区域;然后根据该脸部区域在该热红外脸部图像中确定热量检测区域;对该热量检测区域进行热红外检测,得到脸部热量信息;根据该脸部热量信息确定脸部是否为活体。
可选地,当服务器确定脸部是否为活体之后,还会将活体结果(脸部是否为活体)发送至命令终端,使得命令终端根据该活体结果执行命令。
在一个应用场景中,如图1a所示,采集终端为摄像机10,命令终端为门禁开关30,摄像机10与服务器20通过网络40连接,服务器20与门禁开关30通过网络50连接,其中,网络40和网络50可以为同一网络,此时,由摄像机10采集人脸图像,再通过网络40将人脸图像发送至服务器20中,服务器20判断该人脸图像中的人脸是否为活体之后,将活体结果发送至门禁机30,门禁机30再根据活体结果判断是否开门。
在另一个应用场景中,如图1b所示,采集终端为手机60,命令终端也为该手机60,手机60通过网络40与服务器20连接,此时,由手机60采集人脸图像,再通过网络40将人脸图像发送至服务器20中,服务器20判断该人脸图像中的人脸是否为活体之后,将活体结果返回至该手机60,手机60再根据活体结果确定活体验证是否通过。
上述图1a的例子只是实现本发明实施例的一个系统架构实例,本发明实施例并不限于上述图1a所示的系统结构,基于该系统架构,提出本发明各个实施例。
在一实施例中,提供了一种脸部活体检测方法,可以由服务器的处理器执行,如图1c所示,该脸部活体检测方法包括:
101、获取待检测对象的脸部图像,该脸部图像包括热红外脸部图像和可见光脸部图像。
其中,该脸部图像可以从采集终端中获取,具体获取方式为:当采集终端采集到脸部图像时,将采集到的脸部图像发送至该脸部活体检测装置(服务器)。
其中,本申请实施例中的热红外脸部图像中记录有脸部各个区域向外辐射的热量或温度。
本申请实施例中的可见光脸部图像为带有颜色的图像,例如RGB色彩模式(RGB,Red Green Blue)图像或印刷色彩模式(CMYK,Cyan Magenta Yellow key)图像等,具体图像类型此处不做限定。
该采集终端安装至少安装有可见光摄像头(如RGB摄像头)和热红外摄像头,其中,采集终端通过可见光摄像头采集待检测对象可见光脸部图像(如RGB脸部图像),并同时通过热红外摄像头采集待检测对象热红外脸部图像,采集终端采集到可见光脸部图像以及热红外图像之后,将这些图像发送至服务器中,具体地,可以通过有线网络、无线网络或蓝牙等发送。
需要说明的是,本申请实施例采集终端中的可见光摄像头以及热红外摄像头进行过标定处理,即采集到的可见光脸部图像(如RGB脸部图像)以及热红外脸部图像是对齐的。
具体地,可见光摄像头以及热红外摄像头采用张正友标定法进行标定,为了使得棋盘格标定板的温度是一致的,在做标定处理时,需要将棋盘格的白格镂空,并将其放置在一个温度有差异的、颜色一致(最好为白色)的背景前(比如保持一定距离放置在打开的纯白屏的电脑显示器前),这时我们通过RGB摄像头和热红外摄像头就都能够采集到棋盘格信息了,RGB摄像头透过镂空采集到白色背景和黑色块组成棋盘格图像,热红外摄像头透过镂空采集到不同温度的背景和镂空的标定板组成棋盘格图像。
通过上述方法采集到成对的棋盘格图像后,就能够用张正友标定法对可见光摄像头(如RGB摄像头)和热红外摄像头进行标定了(以可见光脸部图像(如RGB脸部图像)为基准,将热红外脸部图像向可见光脸部图像做对齐)。标定完成后,我们可以得到热红外脸部图像对齐到可见光脸部图像的旋转矩阵Rthermal和平移矩阵Tthermal,则对齐后的热红外脸部图像为:
Ithermal_align=RthermalIthermal+Tthermal;
其中,Ithermal表示原始热红外脸部图像。
102、从可见光脸部图像中检测出脸部区域。
根据可见光脸部图像(如RGB脸部图像)检测脸部区域比较准确也比较快速,故本实施例从可见光脸部图像中检测脸部区域。
例如,可以采用机器学习法从可见光脸部图像中检测出脸部区域;
具体地,可以采用卷积神经网络(CNN,Convolutional Neural Network)从可见光脸部图像中检测出脸部区域;
更具体地,可以采用多任务级联卷积网络(MTCNN,Multi-task CascadedConvolutional Networks)算法对RGB图像做人脸检测,得到脸部区域,其中,该脸部区域包括五官区域(眼、耳、口、鼻、眉)。
检测出来的脸部区域可以用坐标(x,y,w,h)表示,其中,(x,y)为脸部区域左上角位置坐标,w和h分别为脸部的宽和高。
103、根据脸部区域在热红外脸部图像中确定与脸部区域对应的热量检测区域。
由于获取到的可见光脸部图像以及热红外脸部图像是对齐的,所以可见光脸部图像的脸部区域与热红外脸部图像中的脸部区域在同一位置,是重合的。
此时,当服务器获取到了脸部区域在可见光图像中的坐标为(x,y,w,h)之后,提取该脸部区域的坐标(x,y,w,h)。
然后,在该可见光脸部图像以及热红外脸部图像对齐的前提之下,将该脸部区域的坐标(x,y,w,h)应用在热红外脸部图像中,生成热量检测区域。
具体地,在该热红外脸部图像中坐标为(x,y,w,h)的位置生成一个与脸部区域相应的区域,然后将该区域确定为热量检测区域,其中,热量检测区域与脸部区域的形状、大小以及在图片中的位置均一致。
另外,若在确定热量检测区域之前,若可见光脸部图像以及热红外脸部图像没有对齐,还需要对可见光脸部图像以及热红外脸部图像做对齐处理。
104、对热量检测区域进行热红外检测,得到脸部热量信息。
本实施例中的脸部热量信息包括热量分布信息和呼吸频率信息;
在确定热量分布信息时,对热量检测区域进行热红外检测,得到脸部热量信息包括:
由于热量检测区域中的像素点携带有温度信息,故可以直接从获取到的热量检测区域中获取脸部热量信息,其中,该热量分布信息可以包括:热量检测区域中像素点的温度信息以及该像素点的坐标信息,具体地,可以用带有该像素点的温度信息以及该像素点的坐标信息的图片表示。
在确定呼吸频率信息时,对热量检测区域进行热红外检测,得到脸部热量信息包括:
(1)确定热红外脸部图像中的待检测热量区域,待检测热量区域中包括多个检测点。
具体包括:
A.获取预设特征部位在可见光脸部图像中的位置信息。
其中,预设特征部位可以为鼻尖,左鼻孔,右鼻孔,人中等部位,具体部位此处不做限定,位置信息可以为预设特征部位在可见光脸部图像中坐标信息。
B.根据位置信息在热红外脸部图像中形成待检测热量区域。
具体地,以预设特征部位为中心,取一块固定大小的区域作为待检测热量区域。
其中待检测热量区域中可以包括2个检测点,也可以包括3个检测点,具体检测点的个数此处不做限定。
(2)获取预设时间段内检测点的温度和。
具体地,可以获取预设时间段内的每一帧的热红外脸部图像,然后对获取到的每一帧热红外脸部图像计算检测点的温度和,本实施例可以在预设时间段内间隔0.2秒获取一张热红外脸部图像,也可以间隔其他时间长度获取一张热红外脸部图像,具体此处不做限定。
其中,预设时间段可以为5秒,也可以为其他时间长度,具体视实际情况而定,只要可以根据获取到的温度和计算出呼吸频率即可。
以一帧热红外脸部图像举例:假如检测热量区域中包括2个检测点,在预设时间段内某一帧热红外脸部图像的检测点1的温度为36°,监测点2的温度是35°,则此时,温度和为检测点1和检测点1的温度之和,为71°。
(3)根据温度和,以及预设时间段确定呼吸频率信息。
方法一:
A.根据温度和,以及与该温度和对应的热红外脸部图像的获取时间生成呼吸曲线。
本实施例中,在预设时间段内需要获取多帧热红外脸部图像,例如,每间隔0.1秒获取一帧热红外脸部图像,然后根据获取到的每一帧的热红外图像所对应的温度和,以及该帧热红外图像在预设时间段内的获取时间点生成呼吸曲线,其中,温度和为纵轴,时间为横轴,具体如图1d。
其中,该呼吸曲线可以为正玄曲线,也可以为其他曲线,例如余弦曲线,具体此处不做限定。
B.获取呼吸曲线中的极点个数,极点个数包括极大值点的个数或极小值点的个数。
由图1d可知,本实施例中,在预设时间段内极大值点的个数为2,极小值点的个数也为2。
C、根据预设时间段、极点个数确定呼吸频率信息。
本实施例中,极大值点的个数为2,预设时间段为5秒,则此时呼吸频率:P=(极大值点的个数÷预设时间段)*60=(2÷5)*60=24次/分钟。
此外,还可以根据极小值点的个数以及预设时间段确定呼吸频率信息;具体地,当极小值点的个数为2,预设时间段为5秒,则此时呼吸频率:P=(极小值点的个数÷预设时间段)*60=(2÷5)*60=24次/分钟。
在一实施例中,还要判断极大值与相邻的极小值的差是否大于给定阈值,例如,是否大于20°,若大于20°则继续后续步骤,若不大于20°,则直接输出该脸部为非活体脸部的结果。
方法二:
A.确定温度和高于第一阈值的峰值个数,以及确定温度和低于第二阈值的谷值个数。
例如,若在预设时间段5秒内每间隔0.2秒获取到的温度和为:52°、48°52°、56°、61°、65°、69°、73°、68°、65°、61°、57°、53°、48°、52°、56°、60°、64°、69°、74°、68°、64°、60°、57°和54°。
其中,在本实施例中,第一阈值为70°,第二阈值为50°,当然第一阈值也可以为其他值,具体数值此处不做限定,第二阈值也可以为其他值,具体数据此处不做限定。
得到预设时间段的所有温度和之后,确定高于第一阈值(70°)的温度和有73°和74°,即峰值个数为2;确定低于第二阈值(50°)的温度和有48°和48°,即谷值个数为2。
B.根据预设时间段、峰值个数和谷值个数确定呼吸频率信息。
例如,根据上述步骤得到,预设时间段t为5秒,峰值个数为2,谷值个数为2,那么可以根据峰值个数或谷值个数确定呼吸频率,具体公式为:P=(峰值个数÷预设时间段)*60,或为:P=(谷值个数÷预设时间段)*60。
按照峰值个数以及预设时间段计算呼吸频率:P=(2÷5)*60=24次/分钟。
进一步,还需要根据峰值个数以及谷值个数的个数差确定该呼吸频率是否为符合呼吸规律,若该个数差不大于1,则确定该呼吸频率符合呼吸规律,若个数差大于1,则确定该呼吸频率不符合呼吸规律,则此时直接判断脸部为非活体脸部。
在一实施例中,在获取待检测对象的脸部图像之后,还需要根据获取到的可见光脸部图像确定采集到的脸部图像是否具备人脸特征;
所述对所述热量检测区域进行热红外检测,包括:
若所述脸部图像具备人脸特征,则继续后续步骤,对所述热量检测区域进行热红外检测。
若该脸部图像不具备人脸特征,则此时直接输出该脸部为非活体的结果。
105、根据脸部热量信息确定脸部是否为活体。
本实施例中,脸部热量信息包括:热量分布信息和/或呼吸频率信息,其中,根据脸部热量信息确定脸部是否为活体具体包括:
(1)确定热量分布信息是否符合活体脸部的热量分布特征,得到热量特征活体结果。
具体地,采用训练后的分布特征识别网络模型确定所述热量分布信息是否符合活体脸部的热量分布特征。
更具体地,根据该训练后的分布特征识别网络模型预测该热量分布信息的活体值;然后根据该活体值以及预设活体值确定该热量分布信息是否符合活体脸部的热量分布特征,其中,预设活体值为“1”或在“[0.6,1]”区间内则确定该热量分布信息符合活体脸部的热量分布特征。
例如,以卷积神经网络为例,将该热量分布信息(包含热量检测区域中的温度信息与该温度的坐标信息的热红外脸部图像)输入如图1e所示的训练后的卷积神经网络中,该结构可以包括四个卷积层(Convolution)和一个全连接层(FC,Fully Connected Layers),其中,卷积层包括卷积网络层、池化(pooling)层,网络层数、卷积核大小等具体参数可由实际需求来确定,这里给出一个可应用于大多数场景的实例:输入图像大小为48*48,卷积网络1由32个3*3的卷积核组成,最大池化值1(Max-pooling1)大小为3*3,卷积网络2由64个3*3的卷积核组成,最大池化值2(Max-pooling2)大小为3*3,卷积网络3由64个3*3的卷积核组成,最大池化值3(Max-pooling3)大小为2*2,卷积网络4由128个2*2的卷积核组成,全连接网络大小为256,输出结果可以为“0”或“1”,其中,“0”表示脸部不符合活体脸部的热量分布特征,“1”表示符合活体脸部的热量分布特征,此外,输出结果也可以是具体的活体值,例如0.7,其中,在活体值在[0,0.6)区间内,确定脸部不符合活体脸部的热量分布特征,活体值在[0.6,1]区间内,确定脸部符合活体脸部的热量分布特征。
在一实施例中,在根据该训练后的分布特征识别网络模型预测该热量分布信息的活体值之前,还需要对该热红外脸部图像进行预处理。
具体地,将热红外脸部图像中的热量检测区域缩放到目标大小,其中,该目标大小可以为48*48,也可以为其他大小,具体视训练后的分布特征识别网络模型而定。
其中,本方案还需要需要对预设分布特征识别网络模型进行训练,得到训练后的分布特征识别网络模型。
(2)根据预设呼吸频率范围确定呼吸频率信息是否符合活体脸部的呼吸特征,得到呼吸特征活体结果。
其中,预设呼吸频率范围为每分钟10-60之间,即若根据该呼吸频率信息确定呼吸频率落在每分钟10-60之间,则确定该呼吸频率信息符合活体脸部的呼吸特征,所落在每分钟10-60之外,则确定该呼吸频率信息不符合活体脸部的呼吸特征。
需要说明的是,本步骤中的(1)和(2)的先后顺序不限定,步骤(2)可以在步骤(1)之前执行,也可以在步骤(1)之后执行。
此外,在一实施例中,为了节约处理资源,当根据本步骤中的步骤(1)确定热量分布信息不符合活体脸部的热量分布特征,或根据本步骤中的步骤(2)确定呼吸频率信息不符合活体脸部的呼吸特征时,则此时,可以不用执行后续步骤,直接确定该脸部为非活体脸部的结果。
(3)根据热量特征活体结果以及呼吸特征活体结果确定脸部是否为活体。
当脸部热量信息包括热量分布信息和呼吸频率信息时,根据热量特征活体结果以及呼吸特征活体结果确定脸部是否为活体具体包括:
当根据热量特征活体结果确定热量分布信息符合活体脸部的热量分布特征,且根据呼吸特征活体结果确定呼吸频率信息符合活体脸部的呼吸特征时,则此时确定脸部为活体。
当根据热量特征活体结果确定热量分布信息不符合活体脸部的热量分布特征,或根据呼吸特征活体结果确定呼吸频率信息不符合活体脸部的呼吸特征时,则此时确定脸部为非活体。
当脸部热量信息只包括热量分布信息时,不需要执行本步骤中的步骤(2),此时,根据热量特征活体结果以及呼吸特征活体结果确定脸部是否为活体具体包括:
当根据热量特征活体结果确定热量分布信息符合活体脸部的热量分布特征时,则确定脸部为活体。
当根据热量特征活体结果确定热量分布信息不符合活体脸部的热量分布特征时,则确定脸部为非活体。
当脸部热量信息只包括呼吸频率信息时,不需要执行本步骤中的步骤(1),此时,根据热量特征活体结果以及呼吸特征活体结果确定脸部是否为活体具体包括:
当根据呼吸特征活体结果确定呼吸频率信息符合活体脸部的呼吸特征时,确定脸部为活体。
当根据呼吸特征活体结果确定呼吸频率信息不符合活体脸部的呼吸特征时,确定脸部为非活体。
由于立体假冒人脸(3D人脸模型、3D人脸面具或头套等)中的热量信息不符合活体脸部的特征,故本发明实施例中的方案不仅可以识别平面假冒人脸,还可以有效识别立体假冒人脸。
由上可知,本发明实施例获取待检测对象的脸部图像,该脸部图像包括热红外脸部图像和可见光脸部图像;从可见光脸部图像中检测出脸部区域;然后根据脸部区域在热红外脸部图像中确定与脸部区域对应的热量检测区域;对热量检测区域进行热红外检测,得到脸部热量信息;根据脸部热量信息确定脸部是否为活体。本方案根据从可见光脸部图像中检测出的脸部区域,确定热红外脸部图像中的热量检测区域,可以提高热红外脸部图像中的热量检测区域的精度,并且该方案是根据热红外脸部图像中的脸部热量信息判断脸部是否为活体,可以有效识别假冒人脸,提高脸部活体检测的准确性。
在一实施例中,提供了一种脸部活体检测方法,可以由服务器的处理器执行,如图2所示,该脸部活体检测方法包括:
201、获取待检测对象的脸部图像,该脸部图像包括热红外脸部图像、可见光脸部图像和深度脸部图像。
其中,该脸部图像可以从采集终端中获取,具体获取方式为:当采集终端采集到脸部图像时,将采集到的脸部图像发送至脸部活体检测装置(服务器)。
该采集终端安装至少安装有可见光摄像头(如RGB摄像头)、热红外摄像头、红外结构光投射器和红外摄像头,其中,采集终端通过可见光摄像头采集待检测对象可见光脸部图像(如RGB脸部图像),同时通过热红外摄像头采集待检测对象的热红外脸部图像,并同时通过红外结构光投射器和红外摄像头根据结构光三维成像原理采集深度脸部图像,采集终端采集到可见光脸部图像、热红外图像以及深度脸部图像之后,将这些脸部图像发送至服务器中,具体地,可以通过有线网络、无线网络或蓝牙等发送。
需要说明的是,本申请实施例采集终端中的可见光摄像头、热红外摄像头以及红外摄像头进行过标定处理,即采集到的可见光脸部图像(如RGB脸部图像)以及热红外脸部图像以及深度脸部图像是对齐的。
具体地,可见光摄像头以及红外摄像头采用张正友标定法进行标定,可见光摄像头以及热红外摄像头也采用张正友标定法进行标定,即红外摄像头以及热红外摄像头分别跟可见光摄像头做标定处理。
标定完成后,我们可以得到深度脸部图像对齐到可见光脸部图像(如RGB脸部图像)的旋转矩阵Rdepth和平移矩阵Tdepth,则对齐后的深度脸部图像为:
Idepth_align=RdepthIdepth+Tdepth;
其中,Idepth表示原始深度脸部图像。
在可见光摄像头以及热红外摄像头采用张正友标定法进行标定时,为了使得棋盘格标定板的温度是一致的,在做标定处理时,需要将棋盘格的白格镂空,并将其放置在一个温度有差异的、颜色一致(最好为白色)的背景前(比如保持一定距离放置在打开的纯白屏的电脑显示器前),这时我们通过RGB摄像头和热红外摄像头就都能够采集到棋盘格信息了,RGB摄像头透过镂空采集到白色背景和黑色块组成棋盘格图像,热红外摄像头透过镂空采集到不同温度的背景和镂空的标定板组成棋盘格图像。
通过上述方法采集到成对的棋盘格图像后,就能够用张正友标定法对可见光摄像头(如RGB摄像头)和热红外摄像头进行标定了(以可见光脸部图像(如RGB脸部图像)为基准,将热红外脸部图像向可见光脸部图像做对齐)。标定完成后,我们可以得到热红外脸部图像对齐到可见光脸部图像的旋转矩阵Rthermal和平移矩阵Tthermal,则对齐后的热红外脸部图像为:
Ithermal_align=RthermalIthermal+Tthermal;
其中,Ithermal表示原始热红外脸部图像。
202、根据获取到的可见光脸部图像确定采集到的脸部图像是否具备人脸特征,若具备,则执行步骤203,若不具备,则执行步骤213。
具体地,采用MTCNN算法对RGB图像做检测,确定采集到的可见光脸部图像是否具备人脸特征,即判断采集到的可见光脸部图像是否具备人脸的五官特征(具备眼、耳、口、鼻、眉)以及脸部轮廓特征。
若确定采集到的脸部图像具备人脸特征,则继续执行后续步骤,若确定采集到的脸部图像不具备脸部特征,则直接输出该脸部为非活体的结果。
203、从可见光脸部图像中检测出脸部区域。
根据可见光脸部图像(如RGB脸部图像)检测脸部区域比较准确也比较快速,故本实施例从可见光脸部图像中检测脸部区域。
具体地:采用MTCNN算法对RGB图像做人脸检测,得到脸部区域,其中,该脸部区域包括五官区域(眼、耳、口、鼻、眉)。
检测出来的脸部区域可以用坐标(x,y,w,h)表示,其中,(x,y)为脸部区域左上角位置坐标,w和h分别为脸部的宽和高。
需要说明的是,步骤202与步骤203可以合并成一个步骤,即采用MTCNN算法对RGB图像做人脸检测时,除了检测出可见光脸部图像是否具备人脸特征,还从可见光脸部图像中检测出脸部区域。
204、根据脸部区域在深度脸部图像中确定深度检测区域。
由于获取到的可见光脸部图像以及深度脸部图像时是对齐的,所以可见光脸部图像的脸部区域与深度脸部图像中的脸部区域在同一位置,是重合的。
若根据步骤203确定出脸部区域为(x,y,w,h),则深度脸部图像上的脸部区域也同样是(x,y,w,h),然后将深度脸部图像中的脸部区域确定为深度检测区域。
205、对深度检测区域进行深度检测,得到深度信息。
由于深度检测区域中的像素点携带有深度坐标信息,故可以直接从获取到的深度检测区域中确定深度信息,其中,该深度信息可以包括:深度检测区域中像素点的深度坐标信息以及该像素点的平面坐标信息,具体地,可以用带有该像素点的深度坐标信息以及该像素点的平面坐标信息的图片表示。
206、确定深度信息是否符合活体脸部的深度特征,若符合,则执行步骤207,若不符合,则执行步骤213。
具体地,采用训练后的深度特征识别网络模型确定热量分布信息是否符合活体脸部的热量分布特征。
即根据该训练后的分布特征识别网络模型预测该热量分布信息的活体值;然后根据该活体值以及预设活体值确定该热量分布信息是否符合活体脸部的热量分布特征,其中,预设活体值为“1”或在“[0.6,1]”区间内则确定该深度信息符合活体脸部的热量分布特征。
例如,训练后的深度特征识别网络模型以卷积神经网络(CNN,ConvolutionalNeural Network)为例,其中,该训练后的深度特征识别网络模型也可以用图1e的模型来表示,训练后的深度特征识别网络模型与训练后的分布特征识别网络模型的主要区别是训练的样本不一样,将该深度信息(带有深度检测区域中的像素点的深度坐标信息以及该像素点的平面坐标信息的图片)输入如图1e所示的训练后的深度特征识别网络模型中,输出结果(活体值)可以为“0”或“1”,其中,“0”表示脸部不符合活体脸部的深度特征,“1”表示符合活体脸部的深度特征,此外,输出结果可以是具体的活体值,例如0.7,其中,在活体值在[0,0.6)区间内,确定脸部不符合活体脸部的深度特征,活体值在[0.6,1]区间内,确定脸部符合活体脸部的深度特征。
在一实施例中,在根据该训练后的深度特征识别网络模型预测该热量分布信息的活体值之前,还需要对该深度脸部图像进行预处理。
具体地,将深度脸部图像中的热量检测区域缩放到目标大小,其中,该目标大小可以为48*48,也可以为其他大小,具体视训练后的深度特征识别网络模型而定。
其中,在采用训练后的深度特征识别网络模型确定所述热量分布信息是否符合活体脸部的热量深度特征之前,需要对预设深度特征识别网络模型进行训练,得到训练后的深度特征识别网络模型,具体包括:
A.采集活体脸部的深度脸部图像,得到正例样本。
具体地,可以使用红外摄像头以及红外结构光投射器对活体人的脸部进行多个角度的脸部图像采集。
B.采集非活体脸部的深度脸部图像,得到负例样本。
具体地,可以使用红外摄像头以及红外结构光投射器对平面照片、视频、以及进行过各种弯曲后的照片等进行深度脸部图像采集。
C.根据正例样本以及负例样本对预设深度特征识别网络模型进行训练,得到训练后的深度特征识别网络模型。
具体地,可以根据该正例样本以及该负例样本对该预设深度特征识别网络模型进行训练,得到该正例样本以及该负例样本的活体预测值;然后获取该正例样本以及该负例样本的活体真实值,对该活体真实值和该活体预测值进行收敛,得到该训练后的深度特征识别网络模型。
207、根据脸部区域在热红外脸部图像中确定与脸部区域对应的热量检测区域。
由于获取到的可见光脸部图像以及热红外脸部图像是对齐的,所以可见光脸部图像的脸部区域与热红外脸部图像中的脸部区域在同一位置,是重合的。
若根据步骤203确定出脸部区域为(x,y,w,h),则热红外脸部图像上的脸部区域也同样是(x,y,w,h),然后将热红外脸部图像中的脸部区域确定为热量检测区域。
208、对热量检测区域进行热量分布检测,得到热量分布信息。
由于热量检测区域中的像素点携带有温度信息,故可以直接从获取到的热量检测区域中确定脸部热量信息,其中,该热量分布信息可以包括:热量检测区域中像素点的温度信息以及该像素点的坐标信息,具体地,可以用带有该像素点的温度信息以及该像素点的坐标信息的图片表示。
209、确定热量分布信息是否符合活体脸部的热量分布特征,若符合,则执行步骤210,若不符合则执行步骤213。
具体地,采用训练后的分布特征识别网络模型确定所述热量分布信息是否符合活体脸部的热量分布特征。
更具体地,根据该训练后的分布特征识别网络模型预测该热量分布信息的活体值;然后根据该活体值以及预设活体值确定该热量分布信息是否符合活体脸部的热量分布特征,其中,预设活体值为“1”或在“[0.6,1]”区间内则确定该热量分布信息符合活体脸部的热量分布特征。
例如,以卷积神经网络(CNN,Convolutional Neural Network)为例,将该热量分布信息(包含热量检测区域中的温度信息与该温度的坐标信息的热红外脸部图像)输入如图1e所示的训练后的卷积神经网络中,输出结果可以为“0”或“1”,其中,“0”表示脸部不符合活体脸部的热量分布特征,“1”表示符合活体脸部的热量分布特征,此外,输出结果也可以是具体的活体值,例如0.7,其中,在活体值在[0,0.6)区间内,确定脸部不符合活体脸部的热量分布特征,活体值在[0.6,1]区间内,确定脸部符合活体脸部的热量分布特征。
在一实施例中,在根据该训练后的分布特征识别网络模型预测该热量分布信息的活体值之前,还需要对该热红外脸部图像进行预处理。
具体地,将热红外脸部图像中的热量检测区域缩放到目标大小,其中,该目标大小可以为48*48,也可以为其他大小,具体视训练后的分布特征识别网络模型而定。
其中,本方案还需要对预设分布特征识别网络模型进行训练,得到训练后的分布特征识别网络模型,具体包括:
A.采集活体脸部的热红外脸部图像,得到正例样本。
具体地,可以使用热红外摄像头对活体人的脸部进行多个角度的脸部图像采集。
B.采集非活体脸部的热红外脸部图像,得到负例样本。
具体地,可以使用热红外摄像头对照片、视频、3D人脸模型、3D人脸面具和头套等进行多个角度的脸部图像采集。
C.根据正例样本以及负例样本对预设分布特征识别网络模型进行训练,得到训练后的分布特征识别网络模型。
具体地,可以根据该正例样本以及该负例样本对该预设分布特征识别网络模型进行训练,得到该正例样本以及该负例样本的活体预测值;然后获取该正例样本以及该负例样本的活体真实值,对该活体真实值和该活体预测值进行收敛,得到该训练后的分布特征识别网络模型。
210、对热量检测区域进行呼吸检测,得到呼吸频率信息。
(1)确定热红外脸部图像中的待检测热量区域,待检测热量区域中包括多个检测点;
具体包括:
A.获取预设特征部位在可见光脸部图像中的位置信息;
其中,预设特征部位可以为鼻尖,左鼻孔,右鼻孔,人中等部位,具体部位此处不做限定,位置信息可以为预设特征部位在可见光脸部图像中坐标信息。
B.根据位置信息在热红外脸部图像中形成待检测热量区域。
具体地,以预设特征部位为中心,取一块固定大小的区域作为待检测热量区域。
其中待检测热量区域中可以包括2个检测点,也可以包括3个检测点,具体检测点的个数此处不做限定。
(2)获取预设时间段内检测点的温度和;
具体地,可以获取预设时间段内的每一帧的热红外脸部图像,然后对获取到的每一帧热红外脸部图像计算检测点的温度和,本实施例可以在预设时间段内间隔0.2秒获取一张热红外脸部图像,也可以间隔其他时间长度获取一张热红外脸部图像,具体此处不做限定。
其中,预设时间段可以为5秒,也可以为其他时间长度,具体视实际情况而定,只要可以根据获取到的温度和计算出呼吸频率即可。
以一帧热红外脸部图像举例:假如检测热量区域中包括2个检测点,在预设时间段内某一帧热红外脸部图像的检测点1的温度为36°,监测点2的温度是35°,则此时,温度和为检测点1和检测点1的温度之和,为71°。
(3)根据温度和,以及预设时间段确定呼吸频率信息。
方法一:
A.根据温度和,以及与温度和对应的热红外脸部图像的获取时间生成呼吸曲线;
本实施例中,在预设时间段内需要获取多帧热红外脸部图像,例如,每间隔0.1秒获取一帧热红外脸部图像,然后根据获取到的每一帧的热红外图像所对应的温度和,以及该帧热红外图像在预设时间段内的获取时间点生成呼吸曲线,其中,温度和为纵轴,时间为横轴,具体如图1d。
其中,该呼吸曲线可以为正玄曲线,也可以为其他曲线,例如余弦曲线,具体此处不做限定。
B.获取呼吸曲线中的极点个数,极点个数包括极大值点的个数或极小值点的个数。
由图1d可知,本实施例中,在预设时间段内极大值点的个数为2,极小值点的个数也为2。
C、根据预设时间段、极点个数确定呼吸频率信息。
本实施例中,极大值点的个数为2,预设时间段为5秒,则此时呼吸频率:P=(极大值点的个数÷预设时间段)*60=(2÷5)*60=24次/分钟。
此外,还可以根据极小值点的个数以及预设时间段确定呼吸频率信息;具体地,当极小值点的个数为2,预设时间段为5秒,则此时呼吸频率:P=(极小值点的个数÷预设时间段)*60=(2÷5)*60=24次/分钟。
在一实施例中,还要判断极大值与相邻的极小值的差是否大于给定阈值,例如,是否大于20°,若大于20°则继续后续步骤,若不大于20°,则直接输出该脸部为非活体脸部的结果。
方法二:
A.确定温度和高于第一阈值的峰值个数,以及确定温度和低于第二阈值的谷值个数;
例如,若在预设时间段5秒内每间隔0.2秒获取到的温度和为:52°、48°52°、56°、61°、65°、69°、73°、68°、65°、61°、57°、53°、48°、52°、56°、60°、64°、69°、74°、68°、64°、60°、57°和54°。
其中,在本实施例中,第一阈值为70°,第二阈值为50°,当然第一阈值也可以为其他值,具体数值此处不做限定,第二阈值也可以为其他值,具体数据此处不做限定。
得到预设时间段的所有温度和之后,确定高于第一阈值(70°)的温度和有73°和74°,即峰值个数为2;确定低于第二阈值(50°)的温度和有48°和48°,即谷值个数为2。
B.根据预设时间段、峰值个数和谷值个数确定呼吸频率信息。
例如,根据上述步骤得到,预设时间段t为5秒,峰值个数为2,谷值个数为2,那么可以根据峰值个数或谷值个数确定呼吸频率,具体公式为:P=(峰值个数÷预设时间段)*60,或为:P=(谷值个数÷预设时间段)*60。
按照峰值个数以及预设时间段计算呼吸频率:P=(2÷5)*60=24次/分钟。
进一步,还需要根据峰值个数以及谷值个数的个数差确定该呼吸频率是否为符合呼吸规律,若该个数差不大于1,则确定该呼吸频率符合呼吸规律,若个数差大于1,则确定该呼吸频率不符合呼吸规律,则此时直接判断脸部为非活体脸部。
211、根据预设呼吸频率范围确定呼吸频率信息是否符合活体脸部的呼吸特征,若符合,则执行步骤212,若不符合,则执行步骤213。
其中,预设呼吸频率范围为每分钟10-60之间,即若根据该呼吸频率信息确定呼吸频率落在每分钟10-60之间,则确定该呼吸频率信息符合活体脸部的呼吸特征,所落在每分钟10-60之外,则确定该呼吸频率信息不符合活体脸部的呼吸特征。
212、确定待检测对象的脸部为活体。
其中,可以用“1”表示脸部为活体。
213、确定待检测对象的脸部为非活体。
其中,可以用“0”表示脸部为非活体。
需要说明的是,当服务器确定了脸部为活体或非活体之后,将会向命令终端发送该结果,然后命令终端根据该结果执行命令。
需要说明的是,本申请实施例中,步骤204-205,步骤208-209,以及步骤210-211具体执行的顺序此处不做限定,即步骤208-209也可以在步骤204-205之前执行,也可以在步骤210-211之后执行,步骤210-211也可以在步骤204-205之前执行,也可以在步骤204-205之后执行等,其中,只要其中一个步骤确定出脸部不符合活体脸部的脸部特征,则直接判断该脸部为非活体,即跳过其他步骤,直接执行步骤213。
由上可知,本发明实施例获取待检测对象的脸部图像,该脸部图像包括热红外脸部图像、可见光脸部图像和深度脸部图像;从可见光脸部图像中检测出脸部区域;然后根据脸部区域在热红外脸部图像中确定与脸部区域对应的热量检测区域;对热量检测区域进行热红外检测,得到热量分布信息和呼吸频率信息,并根据脸部区域在深度脸部图像中确定深度检测区域,并对该深度检测区域进行深度检测,得到深度信息;根据热量分布信息、呼吸频率信息以及深度信息确定脸部是否为活体。本方案根据从可见光脸部图像中检测出的脸部区域,确定热红外脸部图像中的热量检测区域、以及深度脸部图像中的深度检测区域,可以提高热红外脸部图像中的热量检测区域的精度,并且该方案是根据热红外脸部图像中的脸部热量信息判断脸部是否为活体,可以有效识别假冒人脸,提高脸部活体检测的准确性。
根据前面实施例所描述的方法,以下将举例作进一步详细说明。
在本实施例中,将以该脸部活体检测装置具体集成在服务器中为例进行说明。
(一)模型的训练。
(1)、分布特征识别网络模型的训练。
例如,首先,服务器通过多个途径采集大量的热红外脸部图像样本,其中,该热红外脸部图像样本包括从多个活体脸部中采集的正例样本,以及从多个非活体脸部中采集的负例样本,其中,在采集样本时,需要对采集对象(例如活体脸部、照片、视频、3D人脸模型、3D人脸面具和头套等)进行多个角度(例如正面、左侧面、右侧面,斜上方、斜下方等)的采集,然后将采集到的热红外脸部图像样本添加至训练样本集中。
在训练时,需要从训练样本集中选择一张热红外脸部图像样本作为当前训练样本,然后将当前训练样本导入预设分布特征识别网络模型中,得到当前训练样本对应的样本的活体预测值,获取当前训练样本的真实值,并对该活体真实值和该活体预测值进行收敛,以调整该分布特征识别网络模型中的各个参数至合适数值,再然后,可以返回执行从训练样本集中选择一张热红外脸部图像样本作为当前训练样本的步骤,以对训练样本集中的其他热红外脸部图像样本的活体预测值进行计算和收敛,直至该训练样本集中的所有热红外脸部图像样本均计算和收敛完毕,即可得到训练后的分布特征识别网络模型。
(2)、深度特征识别网络模型的训练。
例如,首先,服务器通过多个途径采集大量的深度脸部图像样本,其中,该深度脸部图像样本包括从多个活体脸部中采集的正例样本,以及从多个非活体脸部中采集的负例样本,其中,在采集样本时,需要对采集对象(例如活体脸部、进行过各种弯曲后的照片、视频、3D人脸模型、3D人脸面具、头套和等)进行多个角度(例如正面、左侧面、右侧面,斜上方、斜下方等)的采集,然后将采集到的深度脸部图像样本添加至训练样本集中。
在训练时,需要从训练样本集中选择一张深度脸部图像样本作为当前训练样本,然后将当前训练样本导入预设分布特征识别网络模型中,得到当前训练样本对应的样本的活体预测值,获取当前训练样本的真实值,并对该活体真实值和该活体预测值进行收敛,以调整该分布特征识别网络模型中的各个参数至合适数值,再然后,可以返回执行从训练样本集中选择一张深度脸部图像样本作为当前训练样本的步骤,以对训练样本集中的其他深度脸部图像样本的活体预测值进行计算和收敛,直至该训练样本集中的所有深度脸部图像样本均计算和收敛完毕,即可得到训练后的深度特征识别网络模型。
(二)脸部活体检测。
如图3所示,基于上述训练后模型,该车辆识别方法的具体流程可以如下:
301、采集终端采集待检测对象的脸部图像。
其中,该采集终端安装至少安装有可见光摄像头(如RGB摄像头)、热红外摄像头、红外结构光投射器和红外摄像头,其中,采集终端通过可见光摄像头采集待检测对象可见光脸部图像(如RGB脸部图像),同时通过热红外摄像头采集待检测对象的热红外脸部图像,并同时通过红外结构光投射器和红外摄像头根据结构光三维成像原理采集深度脸部图像。
需要说明的是,本申请实施例采集终端中的可见光摄像头、热红外摄像头以及红外摄像头进行过标定处理,即采集到的可见光脸部图像(如RGB脸部图像)以及热红外脸部图像以及深度脸部图像是对齐的。
302、采集终端向服务器发送待检测对象的脸部图像。
采集终端采集到可见光脸部图像、热红外图像以及深度脸部图像之后,将这些脸部图像发送至服务器中,具体地,可以通过有线网络、无线网络或蓝牙等发送。
303、服务器从可见光脸部图像中检测出脸部区域。
根据可见光脸部图像(如RGB脸部图像)检测脸部区域比较准确也比较快速,故本实施例从可见光脸部图像中检测脸部区域。
由于获取到的可见光脸部图像、深度脸部图像以及热红外脸部图像是对齐的,所以可见光脸部图像的脸部区域与深度脸部图像以及热红外脸部图像中的脸部区域在同一位置,是重合的。
304、服务器根据脸部区域在深度脸部图像中确定深度检测区域。
具体地,若根据步骤303确定出脸部区域为(x,y,w,h),则深度脸部图像上的脸部区域也同样是(x,y,w,h),为同一位置,然后将深度脸部图像中的脸部区域确定为深度检测区域。
305、服务器确定深度检测区域中的深度信息是否符合活体脸部的深度特征,若符合,则执行步骤306,若不符合,则执行步骤310。
当服务器获取到深度脸部图像之后,会根据步骤302中确定的脸部区域从深度脸部图像中确定深度检测区域,然后将该深度检测区域缩放到目标大小,其中,该目标大小可以为48*48,也可以为其他大小,具体视训练后的深度特征识别网络模型而定。
其中,深度检测区域中的深度信息包括深度检测区域中像素点的深度坐标信息以及该像素点的平面坐标信息,然后将该深度信息输入到训练后的深度特征识别网络模型中,得到该深度信息的活体值,具体地,输出结果可以为“0”或“1”,其中,“0”表示脸部不符合活体脸部的热量分布特征,“1”表示符合活体脸部的深度特征,此外,输出结果也可以是具体的活体值,例如0.7,其中,在活体值在[0,0.6)区间内,确定脸部不符合活体脸部的深度特征,活体值在[0.6,1]区间内,确定脸部符合活体脸部的深度特征。
306、服务器根据脸部区域在热红外脸部图像中确定与脸部区域对应的热量检测区域。
具体地,若根据步骤303确定出脸部区域为(x,y,w,h),则热红外脸部图像上的脸部区域也同样是(x,y,w,h),为同一位置,然后将热红外脸部图像中的脸部区域确定为热量检测区域。
307、服务器确定热量检测区域中的热量分布信息是否符合活体脸部的热量分布特征,若符合,则执行步骤308,若不符合,则执行步骤310。
当服务器获取到热红外脸部图像之后,会根据步骤302中确定的脸部区域从深度脸部图像中确定热红外检测区域,然后将该热红外检测区域缩放到目标大小,其中,该目标大小可以为48*48,也可以为其他大小,具体视训练后的分布特征识别网络模型而定。
其中,热红外检测区域中的热量分布信息包括热量检测区域中像素点的温度信息以及该像素点的坐标信息,然后将该热量分布信息输入到训练后的分布特征识别网络模型中,得到该热量分布信息的活体值,具体地,输出结果可以为“0”或“1”,其中,“0”表示脸部不符合活体脸部的热量分布特征,“1”表示符合活体脸部的热量分布特征,此外,输出结果也可以是具体的活体值,例如0.7,其中,在活体值在[0,0.6)区间内,确定脸部不符合活体脸部的热量分布特征,活体值在[0.6,1]区间内,确定脸部符合活体脸部的热量分布特征。
308、服务器确定热量检测区域中的呼吸频率信息是否符合活体脸部的呼吸特征,若符合,则执行步骤309,若不符合,则执行步骤310。
首先,服务器需要获取热红外脸部图像中的呼吸频率信息,具体地:
(1)确定热红外脸部图像中的待检测热量区域,待检测热量区域中包括多个检测点;
具体包括:
A.获取预设特征部位在可见光脸部图像中的位置信息;
其中,预设特征部位可以为鼻尖,左鼻孔,右鼻孔,人中等部位,具体部位此处不做限定,位置信息可以为预设特征部位在可见光脸部图像中坐标信息。
B.根据位置信息在热红外脸部图像中形成待检测热量区域。
具体地,以预设特征部位为中心,取一块固定大小的区域作为待检测热量区域。
其中待检测热量区域中可以包括2个检测点,也可以包括3个检测点,具体检测点的个数此处不做限定。
(2)获取预设时间段内检测点的温度和;
具体地,可以获取预设时间段内的每一帧的热红外脸部图像,然后对获取到的每一帧热红外脸部图像计算检测点的温度和,本实施例可以在预设时间段内间隔0.2秒获取一张热红外脸部图像,也可以间隔其他时间长度获取一张热红外脸部图像,具体此处不做限定。
其中,预设时间段可以为5秒,也可以为其他时间长度,具体视实际情况而定,只要可以根据获取到的温度和计算出呼吸频率即可。
以一帧热红外脸部图像举例:假如检测热量区域中包括2个检测点,在预设时间段内某一帧热红外脸部图像的检测点1的温度为36°,监测点2的温度是35°,则此时,温度和为检测点1和检测点1的温度之和,为71°。
(3)根据温度和,以及预设时间段确定呼吸频率信息。
方法一:
A.根据温度和,以及与温度和对应的热红外脸部图像的获取时间生成呼吸曲线;
本实施例中,在预设时间段内需要获取多帧热红外脸部图像,例如,每间隔0.1秒获取一帧热红外脸部图像,然后根据获取到的每一帧的热红外图像所对应的温度和,以及该帧热红外图像在预设时间段内的获取时间点生成呼吸曲线,其中,温度和为纵轴,时间为横轴,具体如图1d。
其中,该呼吸曲线可以为正玄曲线,也可以为其他曲线,例如余弦曲线,具体此处不做限定。
B.获取呼吸曲线中的极点个数,极点个数包括极大值点的个数或极小值点的个数。
由图1d可知,本实施例中,在预设时间段内极大值点的个数为2,极小值点的个数也为2。
C、根据预设时间段、极点个数确定呼吸频率信息。
本实施例中,极大值点的个数为2,预设时间段为5秒,则此时呼吸频率:P=(极大值点的个数÷预设时间段)*60=(2÷5)*60=24次/分钟。
此外,还可以根据极小值点的个数以及预设时间段确定呼吸频率信息;具体地,当极小值点的个数为2,预设时间段为5秒,则此时呼吸频率:P=(极小值点的个数÷预设时间段)*60=(2÷5)*60=24次/分钟。
在一实施例中,还要判断极大值与相邻的极小值的差是否大于给定阈值,例如,是否大于20°,若大于20°则继续后续步骤,若不大于20°,则直接输出该脸部为非活体脸部的结果。
方法二:
A.确定温度和高于第一阈值的峰值个数,以及确定温度和低于第二阈值的谷值个数;
例如,若在预设时间段5秒内每间隔0.2秒获取到的温度和为:52°、48°52°、56°、61°、65°、69°、73°、68°、65°、61°、57°、53°、48°、52°、56°、60°、64°、69°、74°、68°、64°、60°、57°和54°。
其中,在本实施例中,第一阈值为70°,第二阈值为50°,当然第一阈值也可以为其他值,具体数值此处不做限定,第二阈值也可以为其他值,具体数据此处不做限定。
得到预设时间段的所有温度和之后,确定高于第一阈值(70°)的温度和有73°和74°,即峰值个数为2;确定低于第二阈值(50°)的温度和有48°和48°,即谷值个数为2。
B.根据预设时间段、峰值个数和谷值个数确定呼吸频率信息。
例如,根据上述步骤得到,预设时间段t为5秒,峰值个数为2,谷值个数为2,那么可以根据峰值个数或谷值个数确定呼吸频率,具体公式为:P=(峰值个数÷预设时间段)*60,或为:P=(谷值个数÷预设时间段)*60。
按照峰值个数以及预设时间段计算呼吸频率:P=(2÷5)*60=24次/分钟。
进一步,还需要根据峰值个数以及谷值个数的个数差确定该呼吸频率是否为符合呼吸规律,若该个数差不大于1,则确定该呼吸频率符合呼吸规律,若个数差大于1,则确定该呼吸频率不符合呼吸规律,则此时直接判断脸部为非活体脸部。
获取了呼吸频率信息之后,再根据预设呼吸频率范围确定所述呼吸频率信息是否符合活体脸部的呼吸特征。
其中,预设呼吸频率范围为每分钟10-60之间,即若根据该呼吸频率信息确定呼吸频率落在每分钟10-60之间,则确定该呼吸频率信息符合活体脸部的呼吸特征,所落在每分钟10-60之外,则确定该呼吸频率信息不符合活体脸部的呼吸特征。
309、服务器确定待检测对象的脸部为活体。
其中,可以用“1”表示脸部为活体。
310、服务器确定待检测对象的脸部为非活体。
其中,可以用“0”表示脸部为非活体。
311、服务器向命令终端发送活体结果。
其中,该活体结果包括包括步骤212和步骤213中的“0”和“1”,具体的,该活体结果还可以用其他形式表示,例如,用文字“活体”和“非活体”表示等,具体形式此处不做限定。
在一实施例中,提供了一种身份认证方法,可以由服务器的处理器执行,如图4所示,该身份认证方法包括:
401、获取待检测对象的脸部图像,该脸部图像包括热红外脸部图像和可见光脸部图像。
其中,该脸部图像可以从采集终端中获取,具体获取方式为:当采集终端采集到脸部图像时,将采集到的脸部图像发送至该服务器。
其中,本申请实施例中的热红外脸部图像中记录有脸部各个区域向外辐射的热量或温度。
本申请实施例中的可见光脸部图像为带有颜色的图像,例如RGB图像或CMYK图像等,具体图像类型此处不做限定。
402、从可见光脸部图像中检测出脸部区域。
根据可见光脸部图像(如RGB脸部图像)检测脸部区域比较准确也比较快速,故本实施例从可见光脸部图像中检测脸部区域。
例如,可以采用机器学习法从可见光脸部图像中检测出脸部区域;
具体地,可以采用CNN从可见光脸部图像中检测出脸部区域;
更具体地,可以采用MTCNN算法对RGB图像做人脸检测,得到脸部区域,其中,该脸部区域包括五官区域(眼、耳、口、鼻、眉)。
检测出来的脸部区域可以用坐标(x,y,w,h)表示,其中,(x,y)为脸部区域左上角位置坐标,w和h分别为脸部的宽和高。
403、根据脸部区域在热红外脸部图像中确定与脸部区域对应的热量检测区域。
由于获取到的可见光脸部图像以及热红外脸部图像是对齐的,所以可见光脸部图像的脸部区域与热红外脸部图像中的脸部区域在同一位置,是重合的。
此时,当服务器获取到了脸部区域在可见光图像中的坐标为(x,y,w,h)之后,提取该脸部区域的坐标(x,y,w,h)。
然后,在该可见光脸部图像以及热红外脸部图像对齐的前提之下,将该脸部区域的坐标(x,y,w,h)应用在热红外脸部图像中,生成热量检测区域。
具体地,在该热红外脸部图像中坐标为(x,y,w,h)的位置生成一个与脸部区域相应的区域,然后将该区域确定为热量检测区域,其中,热量检测区域与脸部区域的形状、大小以及在图片中的位置均一致。
另外,若在确定热量检测区域之前,若可见光脸部图像以及热红外脸部图像没有对齐,还需要对可见光脸部图像以及热红外脸部图像做对齐处理。
404、对热量检测区域进行热红外检测,得到脸部热量信息。
本实施例中的脸部热量信息包括热量分布信息和呼吸频率信息;
在确定热量分布信息时,对热量检测区域进行热红外检测,得到脸部热量信息包括:
由于热量检测区域中的像素点携带有温度信息,故可以直接从获取到的热量检测区域中获取脸部热量信息,其中,该热量分布信息可以包括:热量检测区域中像素点的温度信息以及该像素点的坐标信息,具体地,可以用带有该像素点的温度信息以及该像素点的坐标信息的图片表示。
在确定呼吸频率信息时,对热量检测区域进行热红外检测,得到脸部热量信息包括:
(1)确定热红外脸部图像中的待检测热量区域,待检测热量区域中包括多个检测点。
具体包括:
A.获取预设特征部位在可见光脸部图像中的位置信息。
其中,预设特征部位可以为鼻尖,左鼻孔,右鼻孔,人中等部位,具体部位此处不做限定,位置信息可以为预设特征部位在可见光脸部图像中坐标信息。
B.根据位置信息在热红外脸部图像中形成待检测热量区域。
具体地,以预设特征部位为中心,取一块固定大小的区域作为待检测热量区域。
其中待检测热量区域中可以包括2个检测点,也可以包括3个检测点,具体检测点的个数此处不做限定。
(2)获取预设时间段内检测点的温度和。
具体地,可以获取预设时间段内的每一帧的热红外脸部图像,然后对获取到的每一帧热红外脸部图像计算检测点的温度和,本实施例可以在预设时间段内间隔0.2秒获取一张热红外脸部图像,也可以间隔其他时间长度获取一张热红外脸部图像,具体此处不做限定。
其中,预设时间段可以为5秒,也可以为其他时间长度,具体视实际情况而定,只要可以根据获取到的温度和计算出呼吸频率即可。
以一帧热红外脸部图像举例:假如检测热量区域中包括2个检测点,在预设时间段内某一帧热红外脸部图像的检测点1的温度为36°,监测点2的温度是35°,则此时,温度和为检测点1和检测点1的温度之和,为71°。
(3)根据温度和,以及预设时间段确定呼吸频率信息。
方法一:
A.根据温度和,以及与该温度和对应的热红外脸部图像的获取时间生成呼吸曲线。
B.获取呼吸曲线中的极点个数,极点个数包括极大值点的个数或极小值点的个数。
C、根据预设时间段、极点个数确定呼吸频率信息。
方法二:
A.确定温度和高于第一阈值的峰值个数,以及确定温度和低于第二阈值的谷值个数。
B.根据预设时间段、峰值个数和谷值个数确定呼吸频率信息。
在一实施例中,在获取待检测对象的脸部图像之后,还需要根据获取到的可见光脸部图像确定采集到的脸部图像是否具备人脸特征;
所述对所述热量检测区域进行热红外检测,包括:
若所述脸部图像具备人脸特征,则继续后续步骤,对所述热量检测区域进行热红外检测。
若该脸部图像不具备人脸特征,则此时直接输出该脸部为非活体的结果。
405、根据脸部热量信息确定脸部是否为活体。
本实施例中,脸部热量信息包括:热量分布信息和/或呼吸频率信息,其中,根据脸部热量信息确定脸部是否为活体具体包括:
(1)确定热量分布信息是否符合活体脸部的热量分布特征,得到热量特征活体结果。
(2)根据预设呼吸频率范围确定呼吸频率信息是否符合活体脸部的呼吸特征,得到呼吸特征活体结果。
(3)根据热量特征活体结果以及呼吸特征活体结果确定脸部是否为活体。
406、若脸部为活体,则根据所述可见光脸部图像对所述待检测对象进行身份认证。
本实施例中,当根据步骤405确定脸部为活体之后,则此时根据获取到的可见光脸部图像对所述待检测对象进行身份认证,具体地,获取该可见光脸部图像中脸部区域对应的脸部图像,然后将该脸部图像与数据库中的脸部图像做比对,其中,该数据库中存有可以通过认证的脸部图像,该数据库可以位于服务器侧,也可以位于云侧,具体此处不做限定。
若比对成功,则说明数据库中存有与该脸部图像对应的图像,该待检测对象身份认证成功;
若比对失败,则说明数据库中不存有与该脸部图像对应的图像,该待检测对象认证失败。
其中,根据所述可见光脸部图像对所述待检测对象进行身份认证,若认证成功之后,步骤还包括:
向服务器则向命令终端发送身份认证成功信息,命令终端根据接收到的身份认证成功信息执行与该命令终端功能对应的命令,例如,若该命令终端是门禁机时,则此时命令终端指令开门操作;若该命令终端是考勤机时,则此时命令终端指令考勤记录操作,等等。
根据所述可见光脸部图像对所述待检测对象进行身份认证,若认证失败之后,步骤还包括:
可以向命令终端发送身份认证失败信息,命令终端接收到该身份认证失败信息之后,将不执行任何操作,或者将通过文字或语音等向用户提示身份认证失败的信息。
此外,服务器在确定待检测对象的身份认证失败之后,也可以不向命令终端发送身份认证失败信息,而直接通过文字或语音等向用户提示身份认证失败的信息。
需要说明的是,服务器和命令终端可以为同一设备,当服务器和命令终端可以为同一设备。
由上可知,本发明实施例获取待检测对象的脸部图像,该脸部图像包括热红外脸部图像、可见光脸部图像和深度脸部图像;从可见光脸部图像中检测出脸部区域;然后根据脸部区域在热红外脸部图像中确定与脸部区域对应的热量检测区域;对热量检测区域进行热红外检测,得到热量分布信息和呼吸频率信息,并根据脸部区域在深度脸部图像中确定深度检测区域,并对该深度检测区域进行深度检测,得到深度信息;根据热量分布信息、呼吸频率信息以及深度信息确定脸部是否为活体,若脸部为活体,则根据所述可见光脸部图像对所述待检测对象进行身份认证。本方案根据从可见光脸部图像中检测出的脸部区域,确定热红外脸部图像中的热量检测区域、以及深度脸部图像中的深度检测区域,可以提高热红外脸部图像中的热量检测区域的精度,并且该方案是根据热红外脸部图像中的脸部热量信息判断脸部是否为活体,可以有效识别假冒人脸,提高身份认证的准确性。
为了便于更好的实施本发明实施例提供的脸部活体检测方法,在一实施例中还提供了一种脸部活体检测装置。其中名词的含义与上述脸部活体检测方法中相同,具体实现细节可以参考方法实施例中的说明。
在一实施例中,还提供了一种脸部活体检测装置,如图5a所示,该脸部活体检测装置可以包括:脸部图像获取单元501、脸部区域检测单元502、热量检测区域确定单元503、热红外检测单元504、活体确定单元505;
脸部图像获取单元501,用于获取待检测对象的脸部图像,所述脸部图像包括热红外脸部图像和可见光脸部图像;
脸部区域检测单元502,用于从所述可见光脸部图像中检测出脸部区域;
热量检测区域确定单元503,用于根据所述脸部区域在所述热红外脸部图像中确定与所述脸部区域对应的热量检测区域;
热红外检测单元504,用于对所述热量检测区域进行热红外检测,得到脸部热量信息;
活体确定单元505,用于根据所述脸部热量信息确定脸部是否为活体。
在一实施例中,所述脸部热量信息包括热量分布信息和呼吸频率信息,参考图5b,所述活体确定单元505包括:
第一热量特征活体确定子单元5051,用于确定所述热量分布信息是否符合活体脸部的热量分布特征,得到热量特征活体结果;
第一呼吸特征活体确定子单元5052,用于根据预设呼吸频率范围确定所述呼吸频率信息是否符合活体脸部的呼吸特征,得到呼吸特征活体结果;
第一活体确定子单元5053,用于根据所述热量特征活体结果以及所述呼吸特征活体结果确定所述脸部是否为活体。
其中,所述热量特征活体确定子单元5053具体用于,采用训练后的分布特征识别网络模型确定所述热量分布信息是否符合活体脸部的热量分布特征。
在一实施例中,参阅图5c,所述脸部活体检测装置还包括:
正例样本采集单元506,用于采集活体脸部的热红外脸部图像,得到正例样本;
负例样本采集单元507,用于采集非活体脸部的热红外脸部图像,得到负例样本;
模型训练单元508,用于根据所述正例样本以及所述负例样本对预设分布特征识别网络模型进行训练,得到所述训练后的分布特征识别网络模型。
其中,所述模型训练单元508具体用于:
根据所述正例样本以及所述负例样本对所述预设分布特征识别网络模型进行训练,得到所述正例样本以及所述负例样本的活体预测值;
获取所述正例样本以及所述负例样本的活体真实值,对所述活体真实值和所述活体预测值进行收敛,得到所述训练后的分布特征识别网络模型。
在一实施例中,参阅图5d,所述第一热量特征活体确定子单元5051包括:
活体值预测模块50511,用于根据所述训练后的分布特征识别网络模型预测所述热量分布信息的活体值;
热量特征活体确定模块50512,用于根据所述活体值以及预设活体值确定所述热量分布信息是否符合活体脸部的热量分布特征。
在一些实施例中,参阅图5e,所述热红外检测单元504包括:
待检测热量区域确定子单元5041,用于确定所述热红外脸部图像中的待检测热量区域,所述待检测热量区域中包括多个检测点;
温度和获取子单元5042,用于获取预设时间段内所述检测点的温度和;
呼吸频率信息确定子单元5043,用于根据所述温度和,以及所述预设时间段确定所述呼吸频率信息。
在一实施例中,参阅图5f,所述呼吸频率信息确定子单元5043,包括:
呼吸曲线生成模块50431,用于根据所述温度和,以及与所述温度和对应的所述热红外脸部图像的获取时间生成呼吸曲线;
极点数获取模块50432,用于获取所述呼吸曲线中的极点个数,所述极点个数包括极大值点的个数或极小值点的个数;
呼吸频率信息确定模块50433,用于根据所述预设时间段以及所述极点个数确定所述呼吸频率信息。
在一实施例中,所述待检测热量区域确定子单元5041包括:
位置信息获取模块,用于获取预设特征部位在所述可见光脸部图像中的位置信息;
待检测热量区域形成模块,用于根据所述位置信息在所述热红外脸部图像中形成所述待检测热量区域。
在一些实施例中,参阅图5g,所述图像还包括深度脸部图像;所述脸部活体检测装置还包括:
深度检测区域确定单元509,用于根据所述脸部区域在所述深度脸部图像中确定深度检测区域;
深度检测单元510,用于对所述深度检测区域进行深度检测,得到深度信息;
其中,活体确定单元505具体用于:
根据所述脸部热量信息以及所述深度信息确定所述脸部是否为活体。
在一实施例中,参阅图5h,所述脸部热量信息包括热量分布信息和呼吸频率信息;
所述活体确定单元505包括:
第二热量特征活体确定子单元5054,用于确定所述热量分布信息是否符合活体脸部的热量分布特征,得到热量特征活体结果;
第二呼吸特征活体确定子单元5055,用于根据预设呼吸频率范围确定所述呼吸频率信息是否符合活体脸部的呼吸特征,得到呼吸特征活体结果;
深度特征活体确定子单元5056,用于确定所述深度信息是否符合活体脸部的深度特征,得到深度特征活体结果;
第二活体确定子单元5057,用于根据所述热量特征活体结果、所述呼吸特征活体结果以及所述深度特征活体结果确定所述待检测对象的脸部是否为活体。
在一些实施例中,参阅图5i,所述脸部活体检测装置还包括:
人脸特征确定单元511,用于在所述获取待检测对象的脸部图像之后,根据所述可见光脸部图像确定采集到的所述脸部图像是否具备人脸特征。
热量检测区域确定单元503具体用于:
若所述脸部图像具备人脸特征,则对所述热量检测区域进行热红外检测。
具体实施时,以上各个单元可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现,以上各个单元的具体实施可参见前面的方法实施例,在此不再赘述。
其中,该脸部活体检测装置具体可以集成在服务器。
由上可知,本发明实施例脸部活体检测装置采用脸部图像获取单元501获取待检测对象的脸部图像,该脸部图像包括热红外脸部图像和可见光脸部图像;由脸部区域检测单元502从可见光脸部图像中检测出脸部区域;由热量检测区域确定单元503根据脸部区域在热红外脸部图像中确定与脸部区域对应的热量检测区域;由热红外检测单元504对热量检测区域进行热红外检测,得到脸部热量信息;由活体确定单元505根据脸部热量信息确定脸部是否为活体。本方案根据从可见光脸部图像中检测出的脸部区域,确定热红外脸部图像中的热量检测区域,可以提高热红外脸部图像中的热量检测区域的精度,并且该方案是根据热红外脸部图像中的脸部热量信息判断脸部是否为活体,可以有效识别假冒人脸,提高脸部活体检测的准确性。
在一实施例中,还提供了一种身份认证装置,如图6所示,该脸部活体检测装置可以包括:脸部图像获取单元601、脸部区域检测单元602、热量检测区域确定单元603、热红外检测单元604、活体确定单元605和身份认证单元606;
脸部图像获取单元601,用于获取待检测对象的脸部图像,脸部图像包括热红外脸部图像和可见光脸部图像;
脸部区域检测单元602,用于从可见光脸部图像中检测出脸部区域;
热量检测区域确定单元603,用于根据脸部区域在热红外脸部图像中确定与脸部区域对应的热量检测区域;
热红外检测单元604,用于对热量检测区域进行热红外检测,得到脸部热量信息;
活体确定单元605,用于根据脸部热量信息确定脸部是否为活体;
身份认证单元606,用于当脸部为活体时,根据所述可见光脸部图像对所述待检测对象进行身份认证。
具体实施时,以上各个单元可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现,以上各个单元的具体实施可参见前面的方法实施例,在此不再赘述。
其中,该身份认证装置具体可以集成在服务器。
由上可知,本发明实施例脸部活体检测装置采用脸部图像获取单元601获取待检测对象的脸部图像,该脸部图像包括热红外脸部图像和可见光脸部图像;由脸部区域检测单元602从可见光脸部图像中检测出脸部区域;由热量检测区域确定单元603根据脸部区域在热红外脸部图像中确定与脸部区域对应的热量检测区域;由热红外检测单元604对热量检测区域进行热红外检测,得到脸部热量信息;由活体确定单元605根据脸部热量信息确定脸部是否为活体,若脸部为活体,则身份认证单元606根据所述可见光脸部图像对所述待检测对象进行身份认证。本方案根据从可见光脸部图像中检测出的脸部区域,确定热红外脸部图像中的热量检测区域、以及深度脸部图像中的深度检测区域,可以提高热红外脸部图像中的热量检测区域的精度,并且该方案是根据热红外脸部图像中的脸部热量信息判断脸部是否为活体,可以有效识别假冒人脸,提高身份认证的准确性。
参考图7,本发明实施例提供了一种服务器700,可以包括一个或者一个以上处理核心的处理器701、一个或一个以上计算机可读存储介质的存储器702、射频(RadioFrequency,RF)电路703、电源704、输入单元705、以及显示单元706等部件。本领域技术人员可以理解,图7中示出的服务器结构并不构成对服务器的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器701是该服务器的控制中心,利用各种接口和线路连接整个服务器的各个部分,通过运行或执行存储在存储器702内的软件程序和/或模块,以及调用存储在存储器702内的数据,执行服务器的各种功能和处理数据,从而对服务器进行整体监控。可选的,处理器701可包括一个或多个处理核心;优选的,处理器701可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器701中。
存储器702可用于存储软件程序以及模块,处理器701通过运行存储在存储器702的软件程序以及模块,从而执行各种功能应用以及数据处理。
RF电路703可用于收发信息过程中,信号的接收和发送。
服务器还包括给各个部件供电的电源704(比如电池),优选的,电源可以通过电源管理系统与处理器701逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
该服务器还可包括输入单元705,该输入单元705可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
该服务器还可包括显示单元706,该显示单元706可用于显示由用户输入的信息或提供给用户的信息以及服务器的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。具体在本实施例中,服务器中的处理器701会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器702中,并由处理器701来运行存储在存储器702中的应用程序,从而实现各种功能,如下:
获取待检测对象的脸部图像,所述脸部图像包括热红外脸部图像和可见光脸部图像;从所述可见光脸部图像中检测出脸部区域;根据所述脸部区域在所述热红外脸部图像中确定与所述脸部区域对应的热量检测区域;对所述热量检测区域进行热红外检测,得到脸部热量信息;根据所述脸部热量信息确定脸部是否为活体。
由上可知,本发明实施例获取待检测对象的脸部图像,该脸部图像包括热红外脸部图像和可见光脸部图像;从可见光脸部图像中检测出脸部区域;然后根据脸部区域在热红外脸部图像中确定与脸部区域对应的热量检测区域;对热量检测区域进行热红外检测,得到脸部热量信息;根据脸部热量信息确定脸部是否为活体。本方案根据从可见光脸部图像中检测出的脸部区域,确定热红外脸部图像中的热量检测区域,可以提高热红外脸部图像中的热量检测区域的精度,并且该方案是根据热红外脸部图像中的脸部热量信息判断脸部是否为活体,不仅可以识别平面假冒人脸,还可以识别立体假冒人脸,提高脸部活体检测的准确性。
本领域可见光技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,RandomAccess Memory)、磁盘或光盘等。
以上对本发明实施例所提供的一种脸部活体检测方法、装置和存储介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (13)
1.一种脸部活体检测方法,其特征在于,包括:
获取待检测对象的脸部图像,所述脸部图像包括对齐的热红外脸部图像和可见光脸部图像;
从所述可见光脸部图像中检测出脸部区域;
根据所述脸部区域在所述热红外脸部图像中确定与所述脸部区域对应的热量检测区域;
对所述热量检测区域进行热红外检测,得到脸部热量信息,所述脸部热量信息包括热量分布信息和呼吸频率信息;
确定所述热量分布信息是否符合活体脸部的热量分布特征,得到热量特征活体结果;
根据预设呼吸频率范围确定所述呼吸频率信息是否符合活体脸部的呼吸特征,得到呼吸特征活体结果;
根据所述热量特征活体结果以及所述呼吸特征活体结果确定所述脸部是否为活体;
其中,所述呼吸频率信息的获取方式包括:确定所述热红外脸部图像中的待检测热量区域,所述待检测热量区域中包括多个检测点;获取预设时间段内所述检测点的温度和;根据所述温度和,以及所述预设时间段确定所述呼吸频率信息。
2.根据权利要求1所述的方法,其特征在于,所述确定所述热量分布信息是否符合活体脸部的热量分布特征,包括:
采用训练后的分布特征识别网络模型确定所述热量分布信息是否符合活体脸部的热量分布特征。
3.根据权利要求2所述的方法,其特征在于,所述分布特征识别网络模型的训练过程包括:
采集活体脸部的热红外脸部图像,得到正例样本;
采集非活体脸部的热红外脸部图像,得到负例样本;
根据所述正例样本以及所述负例样本对预设分布特征识别网络模型进行训练,得到所述训练后的分布特征识别网络模型。
4.根据权利要求3所述的方法,其特征在于,所述根据所述正例样本以及所述负例样本对预设分布特征识别网络模型进行训练,包括:
根据所述正例样本以及所述负例样本对所述预设分布特征识别网络模型进行训练,得到所述正例样本以及所述负例样本的活体预测值;
获取所述正例样本以及所述负例样本的活体真实值,对所述活体真实值和所述活体预测值进行收敛,得到所述训练后的分布特征识别网络模型。
5.根据权利要求2所述的方法,其特征在于,所述采用训练后的分布特征识别网络模型确定所述热量分布信息是否符合活体脸部的热量分布特征,包括:
根据所述训练后的分布特征识别网络模型预测所述热量分布信息的活体值;
根据所述活体值以及预设活体值确定所述热量分布信息是否符合活体脸部的热量分布特征。
6.根据权利要求1所述的方法,其特征在于,所述根据所述温度和,以及所述预设时间段确定呼吸频率信息,包括:
根据所述温度和,以及与所述温度和对应的所述热红外脸部图像的获取时间生成呼吸曲线;
获取所述呼吸曲线中的极点个数,所述极点个数包括极大值点的个数或极小值点的个数;
根据所述预设时间段以及所述极点个数确定所述呼吸频率信息。
7.根据权利要求1所述的方法,其特征在于,所述确定所述热红外脸部图像中待检测热量区域,包括:
获取预设特征部位在所述可见光脸部图像中的位置信息;
根据所述位置信息在所述热红外脸部图像中形成所述待检测热量区域。
8.根据权利要求1至7中任一项所述的方法,其特征在于,所述图像还包括深度脸部图像;
所述方法还包括:
根据所述脸部区域在所述深度脸部图像中确定深度检测区域;
对所述深度检测区域进行深度检测,得到深度信息;
所述根据所述脸部热量信息确定脸部是否为活体包括:
根据所述脸部热量信息以及所述深度信息确定所述脸部是否为活体。
9.根据权利要求8所述的方法,其特征在于,所述脸部热量信息包括热量分布信息和呼吸频率信息;
所述根据所述脸部热量信息以及所述深度信息确定所述脸部是否为活体,包括:
确定所述热量分布信息是否符合活体脸部的热量分布特征,得到热量特征活体结果;
根据预设呼吸频率范围确定所述呼吸频率信息是否符合活体脸部的呼吸特征,得到呼吸特征活体结果;
确定所述深度信息是否符合活体脸部的深度特征,得到深度特征活体结果;
根据所述热量特征活体结果、所述呼吸特征活体结果以及所述深度特征活体结果确定所述待检测对象的脸部是否为活体。
10.根据权利要求1所述的方法,其特征在于,所述获取待检测对象的脸部图像之后,所述方法还包括:
根据所述可见光脸部图像确定采集到的所述脸部图像是否具备人脸特征;
所述对所述热量检测区域进行热红外检测,包括:
若所述脸部图像具备人脸特征,则对所述热量检测区域进行热红外检测。
11.一种身份认证方法,其特征在于,包括:
获取待检测对象的脸部图像,所述脸部图像包括对齐的热红外脸部图像和可见光脸部图像;
从所述可见光脸部图像中检测出脸部区域;
根据所述脸部区域在所述热红外脸部图像中确定与所述脸部区域对应的热量检测区域;
对所述热量检测区域进行热红外检测,得到脸部热量信息,所述脸部热量信息包括热量分布信息和呼吸频率信息;
确定所述热量分布信息是否符合活体脸部的热量分布特征,得到热量特征活体结果;
根据预设呼吸频率范围确定所述呼吸频率信息是否符合活体脸部的呼吸特征,得到呼吸特征活体结果;
根据所述热量特征活体结果以及所述呼吸特征活体结果确定所述脸部是否为活体;
当所述脸部为活体时,则根据所述可见光脸部图像对所述待检测对象进行身份认证;
其中,所述呼吸频率信息的获取方式包括:确定所述热红外脸部图像中的待检测热量区域,所述待检测热量区域中包括多个检测点;获取预设时间段内所述检测点的温度和;根据所述温度和,以及所述预设时间段确定所述呼吸频率信息。
12.一种脸部活体检测装置,其特征在于,包括:
脸部图像获取单元,用于获取待检测对象的脸部图像,所述脸部图像包括对齐的热红外脸部图像和可见光脸部图像;
脸部区域检测单元,用于从所述可见光脸部图像中检测出脸部区域;
热量检测区域确定单元,用于根据所述脸部区域在所述热红外脸部图像中确定与所述脸部区域对应的热量检测区域;
热红外检测单元,用于对所述热量检测区域进行热红外检测,得到脸部热量信息,所述脸部热量信息包括热量分布信息和呼吸频率信息;
活体确定单元,用于根据所述脸部热量信息确定脸部是否为活体;
其中,所述活体确定单元包括:
第一热量特征活体确定子单元,用于确定所述热量分布信息是否符合活体脸部的热量分布特征,得到热量特征活体结果;
第一呼吸特征活体确定子单元,用于根据预设呼吸频率范围确定所述呼吸频率信息是否符合活体脸部的呼吸特征,得到呼吸特征活体结果;
第一活体确定子单元,用于根据所述热量特征活体结果以及所述呼吸特征活体结果确定所述脸部是否为活体;
所述热红外检测单元包括:
待检测热量区域确定子单元,用于确定所述热红外脸部图像中的待检测热量区域,所述待检测热量区域中包括多个检测点;
温度和获取子单元,用于获取预设时间段内所述检测点的温度和;
呼吸频率信息确定子单元,用于根据所述温度和,以及所述预设时间段确定所述呼吸频率信息。
13.一种身份认证装置,其特征在于,包括:
脸部图像获取单元,用于获取待检测对象的脸部图像,所述脸部图像包括对齐的热红外脸部图像和可见光脸部图像;
脸部区域检测单元,用于从所述可见光脸部图像中检测出脸部区域;
热量检测区域确定单元,用于根据所述脸部区域在所述热红外脸部图像中确定与所述脸部区域对应的热量检测区域;
热红外检测单元,用于对所述热量检测区域进行热红外检测,得到脸部热量信息,所述脸部热量信息包括热量分布信息和呼吸频率信息;
活体确定单元,用于确定所述热量分布信息是否符合活体脸部的热量分布特征,得到热量特征活体结果;根据预设呼吸频率范围确定所述呼吸频率信息是否符合活体脸部的呼吸特征,得到呼吸特征活体结果;根据所述热量特征活体结果以及所述呼吸特征活体结果确定所述脸部是否为活体;
身份认证单元,用于当所述脸部为活体时,则根据所述可见光脸部图像对所述待检测对象进行身份认证;
其中,所述热红外检测单元具体用于:确定所述热红外脸部图像中的待检测热量区域,所述待检测热量区域中包括多个检测点;获取预设时间段内所述检测点的温度和;根据所述温度和,以及所述预设时间段确定所述呼吸频率信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811251558.1A CN109446981B (zh) | 2018-10-25 | 2018-10-25 | 一种脸部活体检测、身份认证方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811251558.1A CN109446981B (zh) | 2018-10-25 | 2018-10-25 | 一种脸部活体检测、身份认证方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109446981A CN109446981A (zh) | 2019-03-08 |
CN109446981B true CN109446981B (zh) | 2023-03-24 |
Family
ID=65548243
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811251558.1A Active CN109446981B (zh) | 2018-10-25 | 2018-10-25 | 一种脸部活体检测、身份认证方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109446981B (zh) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110059607B (zh) * | 2019-04-11 | 2023-07-11 | 深圳华付技术股份有限公司 | 活体多重检测方法、装置、计算机设备及存储介质 |
CN110287918B (zh) * | 2019-06-28 | 2022-02-15 | Oppo广东移动通信有限公司 | 活体识别方法及相关产品 |
CN110532895B (zh) | 2019-08-06 | 2020-10-23 | 创新先进技术有限公司 | 人脸识别过程中的欺诈行为检测方法、装置及设备 |
CN110941986B (zh) * | 2019-10-10 | 2023-08-01 | 平安科技(深圳)有限公司 | 活体检测模型的训练方法、装置、计算机设备和存储介质 |
CN111414967A (zh) * | 2020-03-26 | 2020-07-14 | 深圳市智建云联科技有限公司 | 提高测温系统鲁棒性的方法及监测系统 |
CN111639522B (zh) * | 2020-04-17 | 2023-10-31 | 北京迈格威科技有限公司 | 活体检测方法、装置、计算机设备和存储介质 |
CN111540092A (zh) * | 2020-04-30 | 2020-08-14 | 济南浪潮高新科技投资发展有限公司 | 一种门禁闸机启停的控制方法、装置、设备及存储介质 |
CN111756705B (zh) * | 2020-06-05 | 2021-09-14 | 腾讯科技(深圳)有限公司 | 活体检测算法的攻击测试方法、装置、设备及存储介质 |
CN112200073B (zh) * | 2020-06-19 | 2022-05-06 | 支付宝(杭州)信息技术有限公司 | 一种刷脸测温及核身的方法、装置和设备 |
CN111814659B (zh) * | 2020-07-07 | 2024-03-29 | 杭州海康威视数字技术股份有限公司 | 一种活体检测方法、和系统 |
CN113537993B (zh) * | 2020-08-27 | 2024-02-13 | 腾讯科技(深圳)有限公司 | 一种基于脸部支付的数据检测方法及装置 |
CN112254276A (zh) * | 2020-09-02 | 2021-01-22 | 海信(山东)空调有限公司 | 一种空调器和控制方法 |
CN112215172A (zh) * | 2020-10-17 | 2021-01-12 | 西安交通大学 | 融合彩色图像与深度信息的人体卧姿三维姿态估计方法 |
CN112287798A (zh) * | 2020-10-23 | 2021-01-29 | 深圳市商汤科技有限公司 | 测温方法及装置、电子设备及存储介质 |
CN112364808A (zh) * | 2020-11-24 | 2021-02-12 | 哈尔滨工业大学 | 基于fmcw雷达与人脸跟踪识别的活体身份认证方法 |
CN112525355A (zh) * | 2020-12-17 | 2021-03-19 | 杭州海康威视数字技术股份有限公司 | 图像处理方法、装置及设备 |
CN113128481A (zh) * | 2021-05-19 | 2021-07-16 | 济南博观智能科技有限公司 | 一种人脸活体检测方法、装置、设备及存储介质 |
CN113159006B (zh) * | 2021-06-23 | 2021-09-14 | 杭州魔点科技有限公司 | 基于人脸识别的考勤方法、系统、电子设备和存储介质 |
CN113591701A (zh) * | 2021-07-30 | 2021-11-02 | 深圳市商汤科技有限公司 | 呼吸检测区域确定方法、装置、存储介质及电子设备 |
CN115116146A (zh) * | 2022-06-02 | 2022-09-27 | 支付宝(杭州)信息技术有限公司 | 活体检测方法、装置、设备及系统 |
CN117253296B (zh) * | 2023-11-17 | 2024-02-27 | 深圳市安思疆科技有限公司 | 一种用于身份认证的3d成像系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106570489A (zh) * | 2016-11-10 | 2017-04-19 | 腾讯科技(深圳)有限公司 | 活体判别方法和装置、身份认证方法和装置 |
CN106650666A (zh) * | 2016-12-26 | 2017-05-10 | 北京旷视科技有限公司 | 活体检测的方法及装置 |
CN107944380B (zh) * | 2017-11-20 | 2022-11-29 | 腾讯科技(深圳)有限公司 | 身份识别方法、装置及存储设备 |
CN107862299B (zh) * | 2017-11-28 | 2021-08-06 | 电子科技大学 | 一种基于近红外与可见光双目摄像头的活体人脸检测方法 |
-
2018
- 2018-10-25 CN CN201811251558.1A patent/CN109446981B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109446981A (zh) | 2019-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109446981B (zh) | 一种脸部活体检测、身份认证方法及装置 | |
US11288504B2 (en) | Iris liveness detection for mobile devices | |
US11521423B2 (en) | Occlusion detection for facial recognition processes | |
CN110163078B (zh) | 活体检测方法、装置及应用活体检测方法的服务系统 | |
WO2020207189A1 (zh) | 身份验证方法、装置、存储介质和计算机设备 | |
CN105612533B (zh) | 活体检测方法、活体检测系统以及计算机程序产品 | |
CN108470169A (zh) | 人脸识别系统及方法 | |
CN106599660A (zh) | 终端安全验证方法及装置 | |
CN112733802B (zh) | 图像的遮挡检测方法、装置、电子设备及存储介质 | |
KR101436290B1 (ko) | 생체인식 유형의 접근제어시스템에 대한 부정 검출 | |
CN111639522A (zh) | 活体检测方法、装置、计算机设备和存储介质 | |
WO2016172923A1 (zh) | 视频检测方法、视频检测系统以及计算机程序产品 | |
CN112364827A (zh) | 人脸识别方法、装置、计算机设备和存储介质 | |
TWI731503B (zh) | 活體臉部辨識系統與方法 | |
JPWO2020065954A1 (ja) | 認証装置、認証方法、認証プログラムおよび記録媒体 | |
CN111583485A (zh) | 小区门禁系统、门禁控制方法和装置、门禁单元及介质 | |
CN113298158A (zh) | 数据检测方法、装置、设备及存储介质 | |
CN208351494U (zh) | 人脸识别系统 | |
CN112562159B (zh) | 一种门禁控制方法、装置、计算机设备和存储介质 | |
CN109543635A (zh) | 活体检测方法、装置、系统、解锁方法、终端及存储介质 | |
KR102596462B1 (ko) | 멀티 모달 센서를 이용한 심박수 측정이 가능한 출입 통제 인증 시스템 및 방법 | |
CN114219868A (zh) | 一种护肤方案推荐方法和系统 | |
CN109886084B (zh) | 基于陀螺仪的人脸认证方法、电子设备及存储介质 | |
CN112215045A (zh) | 一种活体检测方法和装置 | |
CN210721506U (zh) | 一种基于3d摄像头的动态人脸识别终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |