CN113221812A - 人脸关键点检测模型的训练方法和人脸关键点检测方法 - Google Patents
人脸关键点检测模型的训练方法和人脸关键点检测方法 Download PDFInfo
- Publication number
- CN113221812A CN113221812A CN202110579203.0A CN202110579203A CN113221812A CN 113221812 A CN113221812 A CN 113221812A CN 202110579203 A CN202110579203 A CN 202110579203A CN 113221812 A CN113221812 A CN 113221812A
- Authority
- CN
- China
- Prior art keywords
- face
- sample image
- network
- frame
- key point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 88
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000012549 training Methods 0.000 title claims abstract description 55
- 238000002372 labelling Methods 0.000 claims abstract description 54
- 238000012545 processing Methods 0.000 claims description 13
- 230000001815 facial effect Effects 0.000 claims description 12
- 230000006870 function Effects 0.000 description 40
- 230000002159 abnormal effect Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 8
- 230000035945 sensitivity Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000005452 bending Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种人脸关键点检测模型的训练方法和人脸关键点检测方法,其中训练方法包括:获取携带有预置人脸标注信息的人脸样本图像;将所述人脸样本图像输入至MTCNN网络的Pnet网络中,得到所述人脸样本图像对应的人脸候选框;将所述人脸候选框、所述人脸样本图像输入至所述MTCNN网络的Rnet网络中,得到所述人脸样本图像对应的人脸目标框;将所述人脸目标框、所述预置人脸标注信息和所述人脸样本图像输入至所述MTCNN网络的Onet网络中,得到训练好的MTCNN网络模型,其中,所述Onet网络中的关键点回归函数为:预置WingLoss函数,解决了现有的人脸关键点检测方法在进行人脸检测时,容易出现关键点漂移,导致人脸关键点检测准确度较低的技术问题。
Description
技术领域
本申请涉及计算机视觉领域,尤其涉及一种人脸关键点检测模型的训练方法和人脸关键点检测方法。
背景技术
人脸关键点检测对众多应用具有关键作用,例如人脸姿态矫正、姿态识别、表情识别、疲劳监测、嘴型识别等。因此,如何获取高精度的人脸关键点一直是计算机视觉领域的研究热点。
人脸关键点检测是指给定人脸图像,定位出人脸面部的关键点位置,如眉毛、眼睛、鼻子、嘴巴、脸部轮廓等。现有的人脸关键点检测方法在进行人脸检测时,容易出现关键点漂移,导致人脸关键点检测准确度较低。
发明内容
本申请提供了一种人脸关键点检测模型的训练方法和人脸关键点检测方法,解决了现有的人脸关键点检测方法在进行人脸检测时,容易出现关键点漂移,导致人脸关键点检测准确度较低的技术问题。
有鉴于此,本申请第一方面提供了一种人脸关键点检测模型的训练方法,包括:
获取携带有预置人脸标注信息的人脸样本图像;
将所述人脸样本图像输入至MTCNN网络的Pnet网络中,得到所述人脸样本图像对应的人脸候选框;
将所述人脸候选框、所述人脸样本图像输入至所述MTCNN网络的Rnet网络中,得到所述人脸样本图像对应的人脸目标框;
将所述人脸目标框、所述预置人脸标注信息和所述人脸样本图像输入至所述MTCNN网络的Onet网络中,得到训练好的MTCNN网络模型,其中,所述Onet网络中的关键点回归函数为:预置WingLoss函数。
可选地,所述预置WingLoss函数为:
其中,loss(x)为预置WingLoss函数,w为非线性部分之间的间隔,ε为曲率,用于限制曲线的弯曲程度,c为常量,x为预测值与真实值之间的差值。
可选地,所述人脸标注信息包括:人脸标注框和人脸关键点;
所述获取携带有预置人脸标注信息的人脸样本图像,具体包括:
获取未经标注的原始人脸样本图像;
通过预置标注工具,对所述原始人脸样本图像进行人脸框标注,得到标注有人脸标注框的人脸样本图像;
通过预置检测接口,对所述原始人脸样本图像进行关键点检测,得到关键点坐标;
根据所述关键点坐标,对所述原始人脸样本图像进行关键点标注,得到标注有人脸关键点的人脸样本图像。
可选地,所述人脸候选框包括:正人脸候选框、中人脸候选框和负人脸候选框;
将所述人脸样本图像输入至MTCNN网络的Pnet网络中,得到所述人脸样本图像对应的人脸候选框,具体包括:
将所述人脸样本图像输入至MTCNN网络的Pnet网络,使得所述Pnet网络对所述人脸样本图像进行人脸框选取,并基于各人脸选取框对应的交叠率,将所述选取框分类为正人脸候选框、中人脸候选框和负人脸候选框。
可选地,所述对所述人脸样本图像进行人脸框选取,并基于各人脸选取框对应的交叠率,将所述选取框分类为正人脸候选框、中人脸候选框和负人脸候选框,具体包括:
对所述人脸样本图像进行人脸框选取,得到若干人脸选取框;
计算每一所述人脸选取框和所述人脸标注框之间的交叠率;
根据各所述人脸选取框对应的所述交叠率,对所述人脸选取框进行分类,得到正人脸候选框、中人脸候选框和负人脸候选框。
可选地,所述根据各所述人脸选取框对应的所述交叠率,对所述人脸选取框进行分类,得到正人脸候选框、中人脸候选框和负人脸候选框,具体包括:
将所述交叠率大于等于第一阈值的所述人脸选取框作为正人脸候选框;
将所述交叠率大于第二阈值小于所述第一阈值的所述人脸选取框作为所述中人脸候选框;
将所述交叠率小于等于所述第二阈值的所述人脸选取框作为负人脸候选框,其中,所述第二阈值小于所述第一阈值。
本申请第二方面提供了一种人脸关键点检测方法,包括:
获取待检测人脸图像;
将所述待检测人脸图像输入至预置MTCNN网络模型中,得到所述预置MTCNN网络模型输出的所述待检测人脸图像的关键点信息,其中,所述预置MTCNN网络模型为根据第一方面任一种所述的训练方法训练得到。
本申请第三方面提供了一种人脸关键点检测模型的训练装置,包括:
获取单元,用于获取携带有预置人脸标注信息的人脸样本图像;
第一处理单元,用于将所述人脸样本图像输入至MTCNN网络的Pnet网络中,得到所述人脸样本图像对应的人脸候选框;
第二处理单元,用于将所述人脸候选框、所述人脸样本图像输入至所述MTCNN网络的Rnet网络中,得到所述人脸样本图像对应的人脸目标框;
第三处理单元,用于将所述人脸目标框、所述预置人脸标注信息和所述人脸样本图像输入至所述MTCNN网络的Onet网络中,得到训练好的MTCNN网络模型,其中,所述Onet网络中的关键点回归函数为:预置WingLoss函数。
可选地,所述预置WingLoss函数为:
其中,loss(x)为预置WingLoss函数,w为非线性部分之间的间隔,ε为曲率,用于限制曲线的弯曲程度,c为常量,x为预测值与真实值之间的差值。
本申请第四方面提供了一种人脸关键点检测装置,包括:
获取单元,用于获取待检测人脸图像;
检测单元,用于将所述待检测人脸图像输入至预置MTCNN网络模型中,得到所述预置MTCNN网络模型输出的所述待检测人脸图像的关键点信息,其中,所述预置MTCNN网络模型为根据第一方面任一种所述的训练方法训练得到。
从以上技术方法可以看出,本申请具有以下优点:
发明人在研究现有技术后发现,现有人脸关键点检测时出现关键掉漂移是由于使用的关键点回归函数导致的。现有技术中的关键点回归函数为MSELoss,在人脸关键点标注过程中不可避免的存在一定的异常值,而MSELoss容易受到异常值的影响,当数据中出现异常值时,使用MSE的模型会赋予异常点更大的权重,导致模型收敛较差,而本申请中在进行关键点回归时使用预置WingLoss函数,由于WingLoss可缓解对异常值的敏感程度,故通过该关键点回归函数训练得到的模型在进行人脸关键点检测时也不容易出现关键点漂移,从而解决了现有的人脸关键点检测方法在进行人脸检测时,容易出现关键点漂移,导致人脸关键点检测准确度较低的技术问题。
附图说明
为了更清楚地说明本申请实施例中的技术方法,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本申请实施例中一种人脸关键点检测模型的训练方法的实施例一的流程示意图;
图2为本申请实施例中一种人脸关键点检测模型的训练方法的实施例二的流程示意图;
图3为本申请实施例中MTCNN网络的Pnet网络的结构示意图;
图4为本申请实施例中MTCNN网络的Rnet网络的结构示意图;
图5为本申请实施例中MTCNN网络的Onet网络的结构示意图;
图6a为本申请实施例中使用预置WingLoss的人脸关键点检测的效果图;
图6b为本申请实施例中使用MSELoss函数的人脸关键点检测的效果图;
图7为本申请实施例中一种人脸关键点检测方法的实施例的流程示意图;
图8为本申请实施例中一种人脸关键点检测模型的训练装置的实施例的结构示意图;
图9为本申请实施例中一种人脸关键点检测装置的实施例的结构示意图。
具体实施方式
本申请实施例提供了一种人脸关键点检测模型的训练方法和人脸关键点检测方法,解决了现有的人脸关键点检测方法在进行人脸检测时,容易出现关键点漂移,导致人脸关键点检测准确度较低的技术问题。
为了使本技术领域的人员更好地理解本申请方法,下面将结合本申请实施例中的附图,对本申请实施例中的技术方法进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
以便于理解,请参阅图1,图1为本申请实施例中一种人脸关键点检测模型的训练方法的实施例一的流程示意图。
本实施例中的一种人脸关键点检测模型的训练方法,包括:
步骤101、获取携带有预置人脸标注信息的人脸样本图像。
步骤102、将人脸样本图像输入至MTCNN网络的Pnet网络中,得到人脸样本图像对应的人脸候选框。
以卷积神经网络为代表的深度学习算法具有强大的特征提取能力,基于深度学习的方法很快超越的传统的人脸关键点检测算法。而对于人脸关键点检测的深度学习方法而言,以MTCNN(Mutil-task Cascaded Convolutional Networks)为例,该算法利用人脸检测和人脸关键点之间存在的潜在联系,将人脸检测和人脸关键点检测同时进行。
MTCNN包含三个级联的多任务卷积神经网络,分别是Pnet(Proposal Network)、Rnet(Refine Network)、Onet(Output Network)。Pnet、Rnet、Onet三个网络输出都是三部分(人脸分类,判断是否为人脸;框回归;关键点回归),实际应用中,对于Pnet、Rnet输出都是两部分:分类和框回归,Onet输出有三部分:分类、框回归和关键点回归。Pnet→Rnet→Onet三个网络逐级过滤,使获得的人脸框更精准。
步骤103、将人脸候选框、人脸样本图像输入至MTCNN网络的Rnet网络中,得到人脸样本图像对应的人脸目标框。
本实施例中将Pnet输出的人脸候选框作为Rnet的输入,Rnet同样采用边界框回归和NMS来进一步筛除大量的错误候选框,得到更为准确的人脸候选框,也即人脸目标框。
步骤104、将人脸目标框、预置人脸标注信息和人脸样本图像输入至MTCNN网络的Onet网络中,得到训练好的MTCNN网络模型,其中,Onet网络中的关键点回归函数为:预置WingLoss函数。
传统的Onet用于进一步精化结果并输出5个人脸关键点,此时使用的是MSELoss回归函数。MSELoss回归函数会对误差较大的情况给予更大的惩罚,对误差较小的情况给予更小的惩罚,从训练中可看到,模型更加偏向于惩罚较大的点,也就是说MSE会给予离群点更高的权重,这样就会降低模型的整体性能。在实际应用场景中,不可避免的会有一些异常值。当回归多余5个关键点时,使用MSELoss会出现点漂移现象,而采用WingLoss替代MSELoss进行关键点回归,WingLoss采用分段函数,当出现small errors时,引用ln这样的对数进行改善,它的梯度为1/x,越接近0梯度值越大,这样可放大损失,有利于点的回归;当出现large errors时,若继续采用原函数,会使得这部分异常值占主导地位,降低回归效果。
本实施例中,首先获取携带有预置人脸标注信息的人脸样本图像,接着将人脸样本图像输入至MTCNN网络的Pnet网络中,得到人脸样本图像对应的人脸候选框,然后将人脸候选框、人脸样本图像输入至MTCNN网络的Rnet网络中,得到人脸样本图像对应的人脸目标框,最后将人脸目标框、预置人脸标注信息和人脸样本图像输入至MTCNN网络的Onet网络中,得到训练好的MTCNN网络模型,在进行关键点回归时使用预置WingLoss函数,由于WingLoss可缓解对异常值的敏感程度,故通过该关键点回归函数训练得到的模型在进行人脸关键点检测时也不容易出现关键点漂移,从而解决了现有的人脸关键点检测方法在进行人脸检测时,容易出现关键点漂移,导致人脸关键点检测准确度较低的技术问题。
以上为本申请实施例提供的一种人脸关键点检测模型的训练方法的实施例一,以下为本申请实施例提供的一种人脸关键点检测模型的训练方法的实施例二。
请参阅图2,图2为本申请实施例中一种人脸关键点检测模型的训练方法的实施例二的流程示意图。
本实施例中的人脸关键点检测模型的训练方法,包括:
步骤201、获取未经标注的原始人脸样本图像。
本实施例中,原始人脸样本图像可以是提前拍摄好的,也可以是从网络上下载的图像。
为了进一步丰富人脸样本图像,还可以采用镜像和随机旋转不同角度等数据增强算法增加样本的多样性。
步骤202、通过预置标注工具,对原始人脸样本图像进行人脸框标注,得到标注有人脸标注框的人脸样本图像。
本实施例中的预置标注工具可以是labelme标注工具,在其他实施方式中预置标注工具也可以是其他形式,在本实施例中对此不做限定和赘述。
步骤203、通过预置检测接口,对原始人脸样本图像进行关键点检测,得到关键点坐标。
步骤204、根据关键点坐标,对原始人脸样本图像进行关键点标注,得到标注有人脸关键点的人脸样本图像。
步骤205、将人脸样本图像输入至MTCNN网络的Pnet网络,使得Pnet网络对人脸样本图像进行人脸框选取,并基于各人脸选取框对应的交叠率,将选取框分类为正人脸候选框、中人脸候选框和负人脸候选框。
具体地,本实施例中对人脸样本图像进行人脸框选取,并基于各人脸选取框对应的交叠率,将选取框分类为正人脸候选框、中人脸候选框和负人脸候选框,具体包括:
对人脸样本图像进行人脸框选取,得到若干人脸选取框;
计算每一人脸选取框和人脸标注框之间的交叠率;
根据各人脸选取框对应的交叠率,对人脸选取框进行分类,得到正人脸候选框、中人脸候选框和负人脸候选框。
进一步地,根据各人脸选取框对应的交叠率,对人脸选取框进行分类,得到正人脸候选框、中人脸候选框和负人脸候选框,具体包括:
将交叠率大于等于第一阈值的人脸选取框作为正人脸候选框;
将交叠率大于第二阈值小于第一阈值的人脸选取框作为中人脸候选框;
将交叠率小于等于第二阈值的人脸选取框作为负人脸候选框,其中,第二阈值小于第一阈值。
可以理解的是,本实施例中,正人脸候选框、中人脸候选框和负人脸候选框对应的数量比例为1:1:3。
步骤206、将人脸候选框、人脸样本图像输入至MTCNN网络的Rnet网络中,得到人脸样本图像对应的人脸目标框。
步骤207、将人脸目标框、预置人脸标注信息和人脸样本图像输入至MTCNN网络的Onet网络中,得到训练好的MTCNN网络模型,其中,Onet网络中的关键点回归函数为:预置WingLoss函数。
具体地,本实施例中的预置WingLoss函数为:
其中,loss(x)为预置WingLoss函数,w为非线性部分之间的间隔,ε为曲率,用于限制曲线的弯曲程度,c为常量,取值为,C=w-wln(1+w/ε),x为预测值与真实值之间的差值。
将人脸候选框对应的区域缩放到48*48*3的大小,然后利用标注的人脸关键点,生成同样大小的关键点回归数据,且负样本、中样本、正样本、关键点四部分比例为3:1:1:2,输入到Onet进行框回归和关键点回归。
WingLoss可缓解对异常值的敏感程度。主要体现在以下两点:(1)采用对数损失。人脸关键点回归任务中,每个关键点的回归难度不一样,在训练初期,所有点的误差都很大,可认为是large error,训练中后期,大部分关键点基本准确,可认为是small loss,此时若想让关键点回归更准确,就需要放大损失,这是WingLoss采用对数损失意义所在;(2)采用分段函数。训练后期仍然可能出现几个关键点损失是large loss,此时若采用原损失函数,会使得这几个离群点占据主导,影响回归,应该让离群点损失减小。
本实施例中,首先获取携带有预置人脸标注信息的人脸样本图像,接着将人脸样本图像输入至MTCNN网络的Pnet网络中,得到人脸样本图像对应的人脸候选框,然后将人脸候选框、人脸样本图像输入至MTCNN网络的Rnet网络中,得到人脸样本图像对应的人脸目标框,最后将人脸目标框、预置人脸标注信息和人脸样本图像输入至MTCNN网络的Onet网络中,得到训练好的MTCNN网络模型,在进行关键点回归时使用预置WingLoss函数,由于WingLoss可缓解对异常值的敏感程度,故通过该关键点回归函数训练得到的模型在进行人脸关键点检测时也不容易出现关键点漂移,从而解决了现有的人脸关键点检测方法在进行人脸检测时,容易出现关键点漂移,导致人脸关键点检测准确度较低的技术问题。
以上为本申请实施例提供的一种人脸关键点检测模型的训练方法的实施例二,以下为本申请实施例提供的一种人脸关键点检测模型的训练方法的应用例。
本实施例中的一种人脸关键点检测模型的训练方法包括:
图3为Pnet的网络结构。输入前对原始图片进行缩放形成“图像金字塔”,统一到Pnet所需的输入大小12x12像素,通过三个卷积操作,最后输出人脸概率及人脸候选框坐标。对于人脸分类任务,采用交叉熵损失函数;对于人脸框回归任务,采用均方误差,该任务需要预测每个候选框的与真实人脸框之间的偏移,这个偏移由框的左上角坐标、框左上角的纵坐标、框的宽度、框的高度四个变量组成。因此,框回归输出的值为框左上角横坐标的相对偏移、框左上角纵坐标的相对偏移、框宽度的误差、框的高度的误差,输出的形状为1x1x4。
图4为Rnet的网络结构。该网络包括三个卷积层和一个全连接层。Rnet将Pnet生成的人脸候选框缩放到24x24像素大小,作为Rnet的输入,输出与Pnet一样,是对Pnet的结果进一步判定,消除了Pnet中大部分的误判情况。
图5为Onet的网络结构图。进一步把Pnet和Rnet所得到的人脸候选框缩放到48x48大小,输入到最后的Onet。
Onet的输出相对Pnet和Rnet的输出多了人脸关键点的定位,对于这部分任务,本申请中采用WingLoss。
为了评估本申请的性能,图6对比了采用MSELoss(图6b)与WingLoss(图6a)的效果。从图6中可看出,当使用MSELoss时,鼻子、嘴巴及下巴处的点有明显的漂移现象,而使用WingLoss可对未拟合的关键点进行校准,这说明WingLoss对关键点具有很强的鲁棒性。
以上为本申请实施例提供的一种人脸关键点检测模型的训练方法的应用例,以下为本申请实施例提供的一种人脸关键点检测方法的实施例。
请参阅图7,本实施例中的人脸关键点检测方法,具体包括:
步骤701、获取待检测人脸图像。
步骤702、将待检测人脸图像输入至预置MTCNN网络模型中,得到预置MTCNN网络模型输出的待检测人脸图像的关键点信息,其中,预置MTCNN网络模型为根据上述任一实施例的训练方法训练得到。
本实施例中在进行关键点回归时使用预置WingLoss函数,由于WingLoss可缓解对异常值的敏感程度,故通过该关键点回归函数训练得到的模型在进行人脸关键点检测时也不容易出现关键点漂移,从而解决了现有的人脸关键点检测方法在进行人脸检测时,容易出现关键点漂移,导致人脸关键点检测准确度较低的技术问题。
以上为本申请实施例提供的一种人脸关键点检测方法的实施例,以下为本申请实施例提供的一种人脸关键点检测模型的训练装置的实施例。
请参阅图8,本实施例中的人脸关键点检测模型的训练装置,具体包括:
获取单元801,用于获取携带有预置人脸标注信息的人脸样本图像;
第一处理单元802,用于将人脸样本图像输入至MTCNN网络的Pnet网络中,得到人脸样本图像对应的人脸候选框;
第二处理单元803,用于将人脸候选框、人脸样本图像输入至MTCNN网络的Rnet网络中,得到人脸样本图像对应的人脸目标框;
第三处理单元804,用于将人脸目标框、预置人脸标注信息和人脸样本图像输入至MTCNN网络的Onet网络中,得到训练好的MTCNN网络模型,其中,Onet网络中的关键点回归函数为:预置WingLoss函数。
进一步地,预置WingLoss函数为:
其中,loss(x)为预置WingLoss函数,w为非线性部分之间的间隔,ε为曲率,用于限制曲线的弯曲程度,c为常量,取值为,C=w-wln(1+w/ε),x为预测值与真实值之间的差值。
进一步地,人脸标注信息包括:人脸标注框和人脸关键点;
获取单元801具体包括:
获取子单元,用于获取未经标注的原始人脸样本图像;
第一标注子单元,用于通过预置标注工具,对原始人脸样本图像进行人脸框标注,得到标注有人脸标注框的人脸样本图像;
检测子单元,用于通过预置检测接口,对原始人脸样本图像进行关键点检测,得到关键点坐标;
第二标注子单元,用于根据关键点坐标,对原始人脸样本图像进行关键点标注,得到标注有人脸关键点的人脸样本图像。
进一步地,人脸候选框包括:正人脸候选框、中人脸候选框和负人脸候选框;
第一处理单元802具体用于,将人脸样本图像输入至MTCNN网络的Pnet网络,使得Pnet网络对人脸样本图像进行人脸框选取,并基于各人脸选取框对应的交叠率,将选取框分类为正人脸候选框、中人脸候选框和负人脸候选框。
对人脸样本图像进行人脸框选取,并基于各人脸选取框对应的交叠率,将选取框分类为正人脸候选框、中人脸候选框和负人脸候选框,具体包括:
对人脸样本图像进行人脸框选取,得到若干人脸选取框;
计算每一人脸选取框和人脸标注框之间的交叠率;
根据各人脸选取框对应的交叠率,对人脸选取框进行分类,得到正人脸候选框、中人脸候选框和负人脸候选框。
根据各人脸选取框对应的交叠率,对人脸选取框进行分类,得到正人脸候选框、中人脸候选框和负人脸候选框,具体包括:
将交叠率大于等于第一阈值的人脸选取框作为正人脸候选框;
将交叠率大于第二阈值小于第一阈值的人脸选取框作为中人脸候选框;
将交叠率小于等于第二阈值的人脸选取框作为负人脸候选框,其中,第二阈值小于第一阈值。
本实施例中,首先获取携带有预置人脸标注信息的人脸样本图像,接着将人脸样本图像输入至MTCNN网络的Pnet网络中,得到人脸样本图像对应的人脸候选框,然后将人脸候选框、人脸样本图像输入至MTCNN网络的Rnet网络中,得到人脸样本图像对应的人脸目标框,最后将人脸目标框、预置人脸标注信息和人脸样本图像输入至MTCNN网络的Onet网络中,得到训练好的MTCNN网络模型,在进行关键点回归时使用预置WingLoss函数,由于WingLoss可缓解对异常值的敏感程度,故通过该关键点回归函数训练得到的模型在进行人脸关键点检测时也不容易出现关键点漂移,从而解决了现有的人脸关键点检测方法在进行人脸检测时,容易出现关键点漂移,导致人脸关键点检测准确度较低的技术问题。
以上为本申请实施例提供的一种人脸关键点检测模型的训练装置的实施例,以下为本申请实施例提供的一种人脸关键点检测装置的实施例。
请参阅图9,本实施例中的人脸关键点检测装置,具体包括:
获取单元901,用于获取待检测人脸图像;
检测单元902,用于将待检测人脸图像输入至预置MTCNN网络模型中,得到预置MTCNN网络模型输出的待检测人脸图像的关键点信息,其中,预置MTCNN网络模型为根据上述任一实施例的训练方法训练得到。
本实施例中在进行关键点回归时使用预置WingLoss函数,由于WingLoss可缓解对异常值的敏感程度,故通过该关键点回归函数训练得到的模型在进行人脸关键点检测时也不容易出现关键点漂移,从而解决了现有的人脸关键点检测方法在进行人脸检测时,容易出现关键点漂移,导致人脸关键点检测准确度较低的技术问题。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文全称:Read-Only Memory,英文缩写:ROM)、随机存取存储器(英文全称:Random Access Memory,英文缩写:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (10)
1.一种人脸关键点检测模型的训练方法,其特征在于,包括:
获取携带有预置人脸标注信息的人脸样本图像;
将所述人脸样本图像输入至MTCNN网络的Pnet网络中,得到所述人脸样本图像对应的人脸候选框;
将所述人脸候选框、所述人脸样本图像输入至所述MTCNN网络的Rnet网络中,得到所述人脸样本图像对应的人脸目标框;
将所述人脸目标框、所述预置人脸标注信息和所述人脸样本图像输入至所述MTCNN网络的Onet网络中,得到训练好的MTCNN网络模型,其中,所述Onet网络中的关键点回归函数为:预置WingLoss函数。
3.根据权利要求1所述的训练方法,其特征在于,所述人脸标注信息包括:人脸标注框和人脸关键点;
所述获取携带有预置人脸标注信息的人脸样本图像,具体包括:
获取未经标注的原始人脸样本图像;
通过预置标注工具,对所述原始人脸样本图像进行人脸框标注,得到标注有人脸标注框的人脸样本图像;
通过预置检测接口,对所述原始人脸样本图像进行关键点检测,得到关键点坐标;
根据所述关键点坐标,对所述原始人脸样本图像进行关键点标注,得到标注有人脸关键点的人脸样本图像。
4.根据权利要求3所述的训练方法,其特征在于,所述人脸候选框包括:正人脸候选框、中人脸候选框和负人脸候选框;
所述将所述人脸样本图像输入至MTCNN网络的Pnet网络中,得到所述人脸样本图像对应的人脸候选框,具体包括:
将所述人脸样本图像输入至MTCNN网络的Pnet网络,使得所述Pnet网络对所述人脸样本图像进行人脸框选取,并基于各人脸选取框对应的交叠率,将所述选取框分类为正人脸候选框、中人脸候选框和负人脸候选框。
5.根据权利要求4所述的训练方法,其特征在于,所述对所述人脸样本图像进行人脸框选取,并基于各人脸选取框对应的交叠率,将所述选取框分类为正人脸候选框、中人脸候选框和负人脸候选框,具体包括:
对所述人脸样本图像进行人脸框选取,得到若干人脸选取框;
计算每一所述人脸选取框和所述人脸标注框之间的交叠率;
根据各所述人脸选取框对应的所述交叠率,对所述人脸选取框进行分类,得到正人脸候选框、中人脸候选框和负人脸候选框。
6.根据权利要求5所述的训练方法,其特征在于,所述根据各所述人脸选取框对应的所述交叠率,对所述人脸选取框进行分类,得到正人脸候选框、中人脸候选框和负人脸候选框,具体包括:
将所述交叠率大于等于第一阈值的所述人脸选取框作为正人脸候选框;
将所述交叠率大于第二阈值小于所述第一阈值的所述人脸选取框作为所述中人脸候选框;
将所述交叠率小于等于所述第二阈值的所述人脸选取框作为负人脸候选框,其中,所述第二阈值小于所述第一阈值。
7.一种人脸关键点检测方法,其特征在于,包括:
获取待检测人脸图像;
将所述待检测人脸图像输入至预置MTCNN网络模型中,得到所述预置MTCNN网络模型输出的所述待检测人脸图像的关键点信息,其中,所述预置MTCNN网络模型为根据权利要求1至6中任一项所述的训练方法训练得到。
8.一种人脸关键点检测模型的训练装置,其特征在于,包括:
获取单元,用于获取携带有预置人脸标注信息的人脸样本图像;
第一处理单元,用于将所述人脸样本图像输入至MTCNN网络的Pnet网络中,得到所述人脸样本图像对应的人脸候选框;
第二处理单元,用于将所述人脸候选框、所述人脸样本图像输入至所述MTCNN网络的Rnet网络中,得到所述人脸样本图像对应的人脸目标框;
第三处理单元,用于将所述人脸目标框、所述预置人脸标注信息和所述人脸样本图像输入至所述MTCNN网络的Onet网络中,得到训练好的MTCNN网络模型,其中,所述Onet网络中的关键点回归函数为:预置WingLoss函数。
10.一种人脸关键点检测装置,其特征在于,包括:
获取单元,用于获取待检测人脸图像;
检测单元,用于将所述待检测人脸图像输入至预置MTCNN网络模型中,得到所述预置MTCNN网络模型输出的所述待检测人脸图像的关键点信息,其中,所述预置MTCNN网络模型为根据权利要求1至6中任一项所述的训练方法训练得到。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110579203.0A CN113221812A (zh) | 2021-05-26 | 2021-05-26 | 人脸关键点检测模型的训练方法和人脸关键点检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110579203.0A CN113221812A (zh) | 2021-05-26 | 2021-05-26 | 人脸关键点检测模型的训练方法和人脸关键点检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113221812A true CN113221812A (zh) | 2021-08-06 |
Family
ID=77098668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110579203.0A Pending CN113221812A (zh) | 2021-05-26 | 2021-05-26 | 人脸关键点检测模型的训练方法和人脸关键点检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113221812A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114821747A (zh) * | 2022-05-26 | 2022-07-29 | 深圳市科荣软件股份有限公司 | 一种工地人员异常状态识别方法及装置 |
WO2023020289A1 (zh) * | 2021-08-16 | 2023-02-23 | 北京百度网讯科技有限公司 | 网络模型的处理方法、装置、设备和存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107992864A (zh) * | 2018-01-15 | 2018-05-04 | 武汉神目信息技术有限公司 | 一种基于图像纹理的活体识别方法及装置 |
CN109543545A (zh) * | 2018-10-25 | 2019-03-29 | 北京陌上花科技有限公司 | 快速人脸检测方法及装置 |
CN109815810A (zh) * | 2018-12-20 | 2019-05-28 | 北京以萨技术股份有限公司 | 一种基于单摄像头的活体检测方法 |
CN109902603A (zh) * | 2019-02-18 | 2019-06-18 | 苏州清研微视电子科技有限公司 | 基于红外图像的驾驶员身份识别认证方法和系统 |
WO2019114036A1 (zh) * | 2017-12-12 | 2019-06-20 | 深圳云天励飞技术有限公司 | 人脸检测方法及装置、计算机装置和计算机可读存储介质 |
CN109993086A (zh) * | 2019-03-21 | 2019-07-09 | 北京华捷艾米科技有限公司 | 人脸检测方法、装置、系统及终端设备 |
CN111191616A (zh) * | 2020-01-02 | 2020-05-22 | 广州织点智能科技有限公司 | 一种人脸遮挡检测方法、装置、设备及存储介质 |
CN112232117A (zh) * | 2020-09-08 | 2021-01-15 | 深圳微步信息股份有限公司 | 一种人脸识别方法、装置及存储介质 |
-
2021
- 2021-05-26 CN CN202110579203.0A patent/CN113221812A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019114036A1 (zh) * | 2017-12-12 | 2019-06-20 | 深圳云天励飞技术有限公司 | 人脸检测方法及装置、计算机装置和计算机可读存储介质 |
CN107992864A (zh) * | 2018-01-15 | 2018-05-04 | 武汉神目信息技术有限公司 | 一种基于图像纹理的活体识别方法及装置 |
CN109543545A (zh) * | 2018-10-25 | 2019-03-29 | 北京陌上花科技有限公司 | 快速人脸检测方法及装置 |
CN109815810A (zh) * | 2018-12-20 | 2019-05-28 | 北京以萨技术股份有限公司 | 一种基于单摄像头的活体检测方法 |
CN109902603A (zh) * | 2019-02-18 | 2019-06-18 | 苏州清研微视电子科技有限公司 | 基于红外图像的驾驶员身份识别认证方法和系统 |
CN109993086A (zh) * | 2019-03-21 | 2019-07-09 | 北京华捷艾米科技有限公司 | 人脸检测方法、装置、系统及终端设备 |
CN111191616A (zh) * | 2020-01-02 | 2020-05-22 | 广州织点智能科技有限公司 | 一种人脸遮挡检测方法、装置、设备及存储介质 |
CN112232117A (zh) * | 2020-09-08 | 2021-01-15 | 深圳微步信息股份有限公司 | 一种人脸识别方法、装置及存储介质 |
Non-Patent Citations (3)
Title |
---|
Z. WANG ET AL.: "Learning to Detect Head Movement in Unconstrained Remote Gaze Estimation in the Wild", 《2020 IEEE WINTER CONFERENCE ON APPLICATIONS OF COMPUTER VISION (WACV)》, 31 December 2020 (2020-12-31), pages 4 * |
崔馨方: "关于人脸关键点检测的若干问题研究", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》, no. 5, 15 May 2020 (2020-05-15), pages 2 - 10 * |
陈雨薇: "基于改进MTCNN模型的人脸检测与面部关键点定位", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》, no. 1, 15 January 2020 (2020-01-15), pages 3 - 3 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023020289A1 (zh) * | 2021-08-16 | 2023-02-23 | 北京百度网讯科技有限公司 | 网络模型的处理方法、装置、设备和存储介质 |
CN114821747A (zh) * | 2022-05-26 | 2022-07-29 | 深圳市科荣软件股份有限公司 | 一种工地人员异常状态识别方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110728209B (zh) | 一种姿态识别方法、装置、电子设备及存储介质 | |
CN110532970B (zh) | 人脸2d图像的年龄性别属性分析方法、系统、设备和介质 | |
US10318797B2 (en) | Image processing apparatus and image processing method | |
CN107103613B (zh) | 一种三维手势姿态估计方法 | |
CN103530599B (zh) | 一种真实人脸和图片人脸的区别方法和系统 | |
US20180018503A1 (en) | Method, terminal, and storage medium for tracking facial critical area | |
CN110287963B (zh) | 用于综合性能试验的ocr识别方法 | |
EP0363828A2 (en) | Method and apparatus for adaptive learning type general purpose image measurement and recognition | |
CN109033955B (zh) | 一种人脸跟踪方法和系统 | |
CN111091109A (zh) | 基于人脸图像进行年龄和性别预测的方法、系统和设备 | |
CN111652869B (zh) | 基于深度学习的板坯空洞识别方法、系统、介质及终端 | |
CN108062543A (zh) | 一种面部识别方法及装置 | |
CN110287787B (zh) | 图像识别方法、装置及计算机可读存储介质 | |
CN105139000B (zh) | 一种去除眼镜痕迹的人脸识别方法及装置 | |
CN105447532A (zh) | 身份认证方法和装置 | |
CN105550641B (zh) | 基于多尺度线性差分纹理特征的年龄估计方法和系统 | |
CN109800756B (zh) | 一种用于中文历史文献密集文本的文字检测识别方法 | |
CN110543848B (zh) | 一种基于三维卷积神经网络的驾驶员动作识别方法及装置 | |
CN112329663A (zh) | 一种基于人脸图像序列的微表情时刻检测方法及装置 | |
CN113221812A (zh) | 人脸关键点检测模型的训练方法和人脸关键点检测方法 | |
CN111429424A (zh) | 一种基于深度学习的加热炉入口异常识别方法 | |
CN114155610A (zh) | 基于上半身姿态估计的面板装配关键动作识别方法 | |
CN111144220B (zh) | 适于大数据的人员检测方法、装置、设备和介质 | |
CN112989958A (zh) | 基于YOLOv4与显著性检测的安全帽佩戴识别方法 | |
CN113409290B (zh) | 一种液晶屏外观缺陷检测方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |