CN112183215B - 一种结合多特征级联svm与人眼模板的人眼定位方法及系统 - Google Patents
一种结合多特征级联svm与人眼模板的人眼定位方法及系统 Download PDFInfo
- Publication number
- CN112183215B CN112183215B CN202010909746.XA CN202010909746A CN112183215B CN 112183215 B CN112183215 B CN 112183215B CN 202010909746 A CN202010909746 A CN 202010909746A CN 112183215 B CN112183215 B CN 112183215B
- Authority
- CN
- China
- Prior art keywords
- human eye
- human
- region
- layer
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000001514 detection method Methods 0.000 claims abstract description 159
- 230000004424 eye movement Effects 0.000 claims abstract description 13
- 238000012706 support-vector machine Methods 0.000 claims description 84
- 239000013598 vector Substances 0.000 claims description 68
- 230000033001 locomotion Effects 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 8
- 238000012847 principal component analysis method Methods 0.000 claims description 6
- 230000004807 localization Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 3
- 238000000513 principal component analysis Methods 0.000 claims description 2
- 230000008901 benefit Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 210000004709 eyebrow Anatomy 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000007547 defect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000005286 illumination Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 3
- 230000001502 supplementing effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 235000002673 Dioscorea communis Nutrition 0.000 description 1
- 241000544230 Dioscorea communis Species 0.000 description 1
- 208000035753 Periorbital contusion Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011840 criminal investigation Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种结合多特征级联SVM与人眼模板的人眼定位方法及系统,属于人眼定位技术领域,包括步骤:S1,获取视频图像,并初始化视频图像,生成初始的人眼初始信息包并输出人眼坐标,人眼信息包包括人眼模板图像与满足预定数量的人眼坐标集合;S2,将人眼坐标集合拟合成人眼运动模型,生成预测位置,并将预测位置及邻域作为人眼搜索区域;S3,对其进行基于双层特征级联SVM的人眼检测,判断人眼搜索区域内是否检测到人眼;S4,若检测到,则更新人眼信息包并输出人眼坐标;若未检测到,则通过人眼模板在人眼搜索区域内匹配人眼并输出人眼坐标。本发明克服现有技术中人眼检测精度的技术问题,能够有效提高人眼检测精度,并提高整个系统的实时性。
Description
技术领域
本发明涉及人眼定位技术领域,具体涉及一种结合多特征级联SVM与人眼模板的人眼定位方法及系统。
背景技术
随着社会的不断发展,人眼定位技术被广泛应用于监控、刑侦、交通以及医疗等领域。其技术融合了生物学、图像处理、计算机视觉以及模式识别等多个方面。随着智能交互技术的不断发展,产生了人脸识别、视线跟踪、虚拟现实以及增强现实等与人眼定位技术密切相关的技术,而现目前常用的人眼定位方法是基于人眼自身的灰度分布来定位人眼,例如,现有的灰度积分直方图法,则是利用人脸的灰度积分直方图上人眼的波谷分布,通过取横纵方向上的灰度积分图的特定波谷的位置,来定位人眼的位置分布。但灰度积分直方图法易受眼镜以及光照的影响,一旦出现阴影遮挡等情况则容易出现误差。
基于机器学习的人眼检测方法是现有的人眼检测方法的主流方向,例如基于Haar特征结合Adaboost算法、Hog特征结合支持向量机等,这类方法检测精度相对较高,鲁棒性较好。但大多数基于机器学习的人眼检测方法常常存在两大缺陷。一是现有基于机器学习的人眼检测方法大多仅通过单一的特征去描述人眼区域,但带有各自特征的缺陷,例如,常用的Haar特征,其更多是描述人眼的明暗变化信息,当人脸姿态变化较大时,明暗变化信息则有较大改变,导致不易识别出眼睛;HOG特征更多是描述人眼外部轮廓的形状,但其容易将形状相似的眉毛或某些与眼睛形状相似的黑色眼镜框架误识别成眼睛,误检率较高。二是基于机器学习的人眼检测方法,常常需要全图搜索人眼,使得整个算法复杂度较高,实时性较低。
发明内容
本发明的目的在于克服现有技术中基于单一特征与支持向量机的人眼检测方法容易受各自特征缺陷影响,从而影响人眼检测精度的技术问题,以及克服现有基于机器学习的人眼检测常常需要全图搜索人眼,使得整个算法实时性较低的技术问题。本发明所提供的一种结合多特征级联SVM与人眼模板的人眼定位方法及系统,能够有效提高人眼检测精度以及人眼检测的实时性。
为了实现上述发明目的,本发明提供了以下技术方案:
一方面,本发明还提供了一种结合多特征级联SVM与人眼模板的人眼定位方法,所述方法具体包括以下步骤:S1,获取视频图像,并初始化所述视频图像,生成初始的人眼信息包并输出人眼坐标,所述人眼信息包包括人眼模板的图像与满足预设数量的人眼坐标集合;S2,将所述人眼坐标集合拟合成人眼运动模型,预测当前视频图像上人眼所在位置,生成预测位置,并将所述预测位置及其邻域作为人眼搜索区域;S3,对所述人眼搜索区域进行基于双层特征级联SVM的人眼检测,并判断在所述人眼搜索区域内是否检测到人眼;S4,若检测到,则更新所述人眼信息包并输出人眼坐标;若未检测到,则通过所述人眼信息包中的人眼模板在所述人眼搜索区域内匹配人眼,并输出人眼坐标。
进一步地,所述S1的步骤具体包括:S11,将视频图像通过人脸检测器检测出人脸区域,并从所述人脸区域中提取人眼检测区域;S12,将所述人眼检测区域通过滑窗搜索人眼,对每个滑窗的人眼区域提取HOG特征向量,并降低所述HOG特征向量的向量维度,再通过SVM进行分类,生成第一层候选人眼区域,若未生成则返回步骤S11继续进行初始化;S13,若检测到所述第一层候选人眼区域,则对所述第一层候选人眼区域提取LBP特征向量,再通过SVM进行分类,生成第二层候选人眼区域,若未生成则返回步骤S11继续进行初始化;S14,若检测到所述第二层候选人眼区域,取置信度最大的人眼区域为最终人眼区域,将所述最终人眼区域的图像生成为人眼模板,将所述最终人眼区域的中心点坐标作为人眼坐标并生成初始的人眼信息包,并输出所述人眼坐标,若未检测到所述第二层候选人眼区域或是初始的人眼信息包内的人眼坐标数量还少于预设数量,则返回步骤S11继续进行初始化。
优选地,所述降低所述HOG特征向量的向量维度采用主成分分析法。
进一步地,所述S3的步骤具体包括:S31,对每个滑窗的人眼区域提取HOG特征向量,并通过主成分分析法降低所述HOG特征向量的向量维度;S32,通过SVM进行分类,生成第一层候选人眼区域;S33,若检测到所述第一层候选人眼区域,则对所述第一层候选人眼区域提取LBP特征向量,若未检测到所述第一层候选人眼区域,则判断在所述人眼搜索区域内没有检测到人眼,进入步骤S4;S34,通过SVM进行分类,并生成第二层候选人眼区域;S35,若检测到所述第二层人眼区域,则取其中置信度最大的人眼区域为最终人眼区域,并判断在所述人眼搜索区域内是否检测到人眼,若未检测到所述第二层人眼区域,则判断在所述人眼搜索区域内没有检测到人眼,进入步骤S4。
进一步地,所述S4的步骤具体包括:S41,若所述步骤S3判断在所述人眼搜索区域内检测到人眼,则将所述人眼信息包的所述人眼模板的图像更新为最终人眼区域的图像,将所述最终人眼区域的中心点坐标作为当前人眼坐标,用所述当前人眼坐标更新所述人眼信息包中的所述人眼坐标集合,并输出所述当前人眼坐标;S42,若所述步骤S3判断在所述人眼搜索区域内没有检测到人眼,则通过所述人眼信息包的所述人眼模板,在所述人眼搜索区域内匹配检测人眼。进一步地,所述步骤S42还包括:S421,若经过所述人眼模板匹配到人眼,则更新所述人眼模板与所述人眼坐标集合,并输出当前人眼坐标;S422,若经过所述人眼模板未匹配到人眼,则返回步骤S1重新初始化。
另一方面,本发明还提供了一种结合多特征级联SVM与人眼模板的人眼定位系统,所述系统包括以下模块:人眼初始化模块,用于获取视频图像,并初始化视频图像,生成初始的人眼信息包并输出人眼坐标;位置预测模块,用于将所述人眼坐标集合拟合成人眼运动模型,预测当前视频图像上人眼所在位置,生成预测位置,并将所述预测位置及其邻域作为人眼搜索区域;特征检测模块,用于对所述人眼搜索区域进行基于双层特征级联SVM的人眼检测,并判断在所述人眼搜索区域内是否检测到人眼;模板检测模块,用于获取所述特征检测模块是否检测到人眼的结果,若检测到人眼,则更新所述人眼信息包并输出人眼坐标;若没有检测到人眼,则通过所述人眼信息包中的人眼模板在所述人眼搜索区域内匹配人眼,更新所述人眼信息包并输出人眼坐标。
进一步地,所述人眼初始化模块包括以下单元:区域检测单元,用于将视频图像通过人脸检测器检测出人脸区域,并从所述人脸区域中提取人眼检测区域;第一层特征单元,用于将所述人眼检测区域通过滑窗搜索人眼,对每个滑窗的人眼区域提取HOG特征向量,并降低HOG特征向量的向量维度,再通过SVM进行分类,生成第一层候选人眼区域,若未生成则返回所述区域模块检测单元继续进行初始化;第二层特征单元,用于在检测到所述第一层候选人眼区域的情况下,对所述第一层候选人眼区域提取LBP特征向量,再通过SVM进行分类,生成第二层候选人眼区域,若未生成则返回所述区域模块检测单元继续进行初始化;信息输出单元,用于在检测到所述第二层候选人眼区域的情况下,取置信度最大的人眼区域为最终人眼区域,将所述最终人眼区域的图像生成人眼模板,所述最终人眼区域的中心点坐标作为人眼坐标并生成初始的人眼信息包,并输出所述人眼坐标;在未检测到所述第二层候选人眼区域或是所述初始的人眼信息包的人眼坐标数量少于预设数量的情况下,则返回所述区域检测模块继续进行初始化。
进一步地,所述特征检测模块包括以下单元:第一层特征提取单元,用于对每个滑窗的人眼区域提取HOG特征向量,并通过主成分分析法降低所述HOG特征向量的向量维度,再通过SVM进行分类,生成第一层人眼区域,若未生成则判断在所述人眼搜索区域内没有检测到人眼,再进入所述模板检测模块;第二层特征提取单元,用于在检测到所述第一层人眼区域的情况下,则对所述第一层人眼区域进行提取LBP特征向量,在未检测到所述第一层人眼区域的情况下,则进入所述模板检测模块进行处理,再通过SVM进行分类,并生成第二层人眼区域。若未生成,则判断在所述人眼搜索区域内没有检测到人眼,再进入所述模板检测模块;人眼区域生成单元,用于在检测到所述第二层人眼区域的情况下,则取其中置信度最大的人眼区域为最终人眼区域,并判断在所述人眼搜索区域内是否检测到人眼,若未检测到所述第二层人眼区域,则判断在所述人眼搜索区域内没有检测到人眼,再进入所述模板检测模块。
进一步地,所述模板检测模块包括以下单元:坐标更新单元,用于在所述特征检测模块判断出在所述人眼搜索区域检测到人眼的情况下,将所述人眼信息包的人眼模板的图像更新为最终人眼区域的图像,将所述最终人眼区域的中心点坐标作为当前人眼坐标,用所述当前人眼坐标更新所述人眼信息包中的人眼坐标集合,并输出所述当前人眼坐标;模板匹配单元,用于在所述特征检测模块判断出所述人眼检索区域内未检测到人眼的情况下,则通过所述人眼模板在所述人眼搜索区域内匹配检测人眼。
与现有技术相比,本发明的有益效果:
本发明所提供的一种结合多特征级联SVM与人眼模板的人眼定位方法及系统,通过人眼运动模型来预测人眼出现的大致位置,能缩小人眼检测范围。通过滑窗搜索人眼过程中采用HOG特征结合SVM的第一层人眼检测,级联LBP特征结合SVM的第二层人眼检测,由两层人眼检测构成了一种双层特征人眼检测,模仿人眼先轮廓后纹理的视觉特点,结合HOG特征善于描述形状的优点与LBP特征善于描述纹理的优点,有效提高人眼检测精度,并通过补充人眼模板匹配来降低漏检率。有效克服传统全图人眼检测的低实时性的缺点,并且在大部分时间里都省去了人脸检测的耗时,提高整个系统的实时性。
附图说明
图1为本发明一种结合多特征级联SVM与人眼模板的人眼定位方法的流程示意图;
图2为步骤S1对人眼进行提取的示意图;
图3为通过滑窗进行人眼检测的示意图;
图4为经双层人眼检测的结构示意图;
图5为步骤S3对人眼进行HOG特征提取的示意图;
图6为经步骤S3对人眼进行双层人眼检测所得到的示意图;
图7为本发明一种结合多特征级联SVM与人眼模板的人眼定位系统的结构示意图。
具体实施方式
下面结合实施例及具体实施方式对本发明作进一步的详细描述。但不应将此理解为本发明上述主题的范围仅限于以下的实施例,凡基于本发明内容所实现的技术均属于本发明的范围。
本发明是一种结合多特征级联SVM与人眼模板的人眼定位方法及系统,通过构建HOG特征结合支持向量机(Support Vector Machine,SVM)的第一层人眼检测,再经过主成份分析法(principal components analysis,PCA)降低维度后的,并级联第二层LBP特征结合SVM的第二层人眼检测,结合了HOG特征与LBP特征的优点,有效提高了人眼检测的精度,另一方面又通过人眼模板匹配的方式作为补充来降低漏检。本发明通过建立人眼坐标的运动模型来预测当前人眼出现的大致位置,既减少了人脸检测的耗时,又缩小了人眼检测范围,提高人眼检测的实时性。
HOG特征以及LBP特征都是用于目标检测的特征描述子。HOG特征即梯度方向直方图,其主要思想是物体的局部形状能够被梯度或边缘的方向密度分布很好地描述。由于HOG特征是在图像的局部方格单元上操作,所以它对图像的几何形变和光照变化都能保持很好的不变性。其主要描述的物体的形状。
LBP特征即局部二值模式,是一种用来描述图像局部纹理的特征描述子。它具有旋转不变性和灰度不变性等显著的优点。LBP特征有多个变种,本方法采用LBP的旋转等价模型特征,该模式的LBP特征具有较低的维度和旋转不变性的优点。LBP特征的特点在于描述人眼的纹理特征,其可有效的降低眼镜架,眉毛的干扰,但LBP特征的算法复杂度相比Haar特征更低,实时性更强。
本发明的目的是提高人眼检测的精度。因此构建HOG+SVM级联LBP+SVM的双层特征人眼检测,使得最后检测出的人眼依次满足HOG特征约束和LBP特征约束,克服了单一特征自身的缺陷,有效提高检测精度。
另一方面采用人眼模板匹配作为补充,降低系统的漏检率。当双层人眼检测未检测到人眼时,采取最新的人眼模板进行人眼模板匹配来确定人眼区域大致。只要人脸运动不至于太剧烈,时间间隔较短的几帧之间的人眼图像是比较接近,模板匹配能保证较好的匹配精度。总的来说,双层人眼检测出的人眼能给出高精度的人眼区域,短时间间隔的模板匹配将高精度的人眼区域作为模板也能提供较高的精度。因此以上综合的人眼检测系统相比单一特征的人眼检测能提供更高的检测精度,漏检率也不会有什么影响。
考虑人脸运动一般比较平滑,通过建立人眼坐标的人眼运动模型,预测本帧人眼的粗略位置,在预测出的人眼位置附近进行局部的人眼搜索了,有效地缩小了SVM的搜索范围,而且去掉了人脸检测的耗时,提高人眼定位的实时性。
其具体实施方式如下:
第一实施例
图1是根据一示例性实施例示出的一种结合多特征级联SVM与人眼模板的人眼定位方法的流程示意图。
请参考图1,本实施例的一种结合多特征级联SVM与人眼模板的人眼定位方法,包括以下步骤:
步骤S1,获取视频图像,并初始化视频图像,生成初始的人眼信息包并输出人眼坐标,人眼信息包包括人眼模板的图像与满足预设数量的人眼坐标集合。初始化视频图像的目的是为下一步建立初始的人眼运动模型做准备,此时,人眼检测的范围是在整个人脸区域上。人眼模板的图像是在本步骤中获取到人眼区域以后,选取该区域的人眼图像所生成的人眼模板。人眼坐标集合即为每一次所获取到的人眼坐标所生成的集合,由于生成人眼运动模型需要多个坐标,所以此处需要的人眼坐标的数量得达到预设数量,此处的预设数量是根据实际人眼运动模型所需要的人眼坐标的数量,可根据实际情况进行设定,此处不限定。
步骤S1具体包括以下步骤:
步骤S11,将视频图像通过人脸检测器检测出人脸区域,并从人脸区域中提取人眼检测区域。
其中,在获取到视频图像以后,通过人脸检测器检测出使用者人脸;优选地,人脸检测器可以为通过Haar特征结合Adaboost算法检测,再将人脸区域的上半部分作为检测区域。由于通过Haar特征结合Adaboost算法的人脸检测技术为现有技术,故在此不再赘述。本步骤主要是为了从视频图像中提取人脸区域,再选择上部分人脸区域作为人眼检测区域,以此缩小需要检测的区域。
步骤S12,将人眼检测区域通过滑窗搜索人眼,对每个滑窗的人眼区域提取HOG特征向量,并降低HOG特征向量的向量维度,再通过SVM进行分类,生成第一层候选人眼区域,若未生成则返回步骤S11继续进行初始化。
其中,如图2所示,选择人脸区域的上部分为人眼检测区域,左半部分为右眼搜索区域,右半部分为左眼搜索区域,通过滑窗搜索左右眼区域,对在每个滑窗的图像提取HOG特征,HOG特征用于描述人眼的外部轮廓,其在较大的人脸姿态变换范围内也能识别出眼睛,漏检率较低。再通过PCA对所提取到的HOG特征向量降低向量维度,以此提高SVM的判别速度。本步骤通过结合HOG特征和SVM,完成第一层人眼检测。
步骤S13,若检测到第一层候选人眼区域,则对第一层候选人眼区域提取LBP特征向量,再通过SVM进行分类,生成第二层候选人眼区域,若未生成则返回步骤S11继续进行初始化。
其中,本步骤主要是对步骤S12所生成的第一层候选人眼区域进行判断,由于HOG特征更多是描述人眼的外部轮廓,其能在较大的人脸姿态变换范围内识别出眼睛,但若是眼睛较小的情况下,其容易将与眼睛形状相似的黑色眼镜框架和眼周的眉毛识别成眼睛,其误检率较高,所以在经过HOG特征结合SVM进行第一层人眼检测之后,还需对人眼的纹理进行检测,若在第一层候选人眼区域中检测到人眼,则再对第一层候选人眼区域进行LBP特征提取,再通过SVM进行分类。本步骤是通过LBP特征结合SVM,完成第二层人眼检测,即完成对人眼纹理的检测。在完成第二层人眼检测时,则生成第二层候选人眼区域;但若未完成第二层人眼检测,此时则需再次回到步骤S11继续进行初始化操作。
步骤S14,若检测到第二层候选人眼区域,则取置信度最大的人眼区域为最终人眼区域,将最终人眼区域的图像生成人眼模板,最终人眼区域的中心点坐标作为当前人眼坐标并生成初始的人眼信息包,并输出人眼坐标;若未检测到第二层候选人眼区域或是初始的人眼信息包内的人眼坐标数量少于预设数量,则返回步骤S11继续进行初始化。
其中,此时需要判断经过双层人眼检测后是否生成第二层候选人眼区域,若检测到第二层候选人眼区域,则确定最终人眼位置,即最终人眼区域,取该检测出的左右人眼区域的中心点的坐标作为人眼坐标,将该坐标以及对应时间点放入人眼初始信息包,并且将检测出的左右人眼设置为预设的人眼模板,并输出左右人眼坐标。若人眼信息包中的历史人眼坐标的数量满足拟合初始人眼模板所需要的坐标个数,则默认初始化完成,其中预设数量是根据人眼运动模型所需要的历史坐标数量进行预先设置的,此处数量可根据实际情况而设置。若未检测到第二层候选人眼区域,或者初始的人眼信息包内的人眼坐标数量还少于预设数量,则说明初始化未能成功,此时需要返回步骤S11继续进行初始化操作。
在第一层人眼检测生成第一人眼区域后,级联LBP特征结合SVM的第二层人眼检测,构成了一种双层特征人眼检测,模仿人眼先轮廓后纹理的视觉特点,结合HOG特征善于描述形状的优点与LBP善于描述纹理的优点,有效提高人眼检测精度。
步骤S2,将人眼坐标集合拟合成人眼运动模型,预测当前视频图像上人眼所在位置,生成预测位置,并将预测位置的邻域以及自身区域作为人眼搜索区域,进行基于滑窗的人眼搜索。如图3所示,将预测位置的上下左右,左上,左下,右上,右下的邻域以及预测位置自身区域作为人眼搜索区域,进行基于滑窗的人眼搜索。考虑人脸运动的一般比较平滑,建立人眼运动模型,预测出本帧的人眼粗略位置,在预测出的人眼位置附近进行局部的人眼搜索,有效地缩小了SVM的搜索范围,而且去掉了人脸检测的耗时,使得实时性大大提高。
其中,在经过初始化操作之后,会获得人眼坐标集合,而本步骤则是将之前每一次所获取到的人眼初始坐标而形成的人眼坐标集合生成一个人眼运动模型,并根据该人眼运动模型预测人眼所在的位置,在动作变化不大的情况下,可以准确判断出人眼所在的位置,并将该位置生成为预测位置,然后再基于该预测位置的邻域进行人眼搜索,以此减少所需要检测的面积,加快人眼检测的速度。在短时间序列范围内,如连续5帧或连续10帧,人眼运动较为平滑,因此可以建立人眼运动模型去拟合人眼的运动,不再需要时刻去检测人脸,然后再根据人脸检测人眼,本方法通过人眼运动模型的建立,提前预测人眼运动的范围,缩小人眼检测的范围,降低人眼检测所需耗费的时间。
其中,在训练人眼分类器模型过程中,将眼睛区域图像设置为正样本,将除眼睛区域以外的脸部区域图像设置为负样本,比如说鼻子、眼镜架以及皮肤等区域皆为负样本。提取正负样本的HOG特征,建立特征样本集,并通过SVM训练出第一层人眼检测模型。用HOG特征结合SVM的方式对训练集进行测试,选取出误检测以及漏检测的难样本。将难样本以及部分补充的正负样本生成训练集,提取该训练集的LBP特征,再通过SVM训练出第二层人眼检测模型。
其中,假设令以当前帧为起点,往前数N个时间点内,人眼坐标(u,v)运动近似依次一次线性模型,其中u坐标是图像上人眼坐标的横向坐标,v坐标是图像上人眼坐标的纵向坐标。这些时间点以及对应的坐标均在人眼信息包内,如公式(1)所示,即:
其中,au,bu分别是图像上人眼坐标u坐标的系数,av,bv分别是v坐标的系数,t为某一时刻时间点。
建立N个时间点的人眼坐标方程组,写成矩阵的形式如公式(2)所示:
其中ti(i=0,1...N)为已知的N个时间点,ui(i=0,1...N)为N个时间点对应的人眼坐标的u值,vi(i=0,1...N)为N个时间点对应的人眼坐标的v值。
再通过最小二乘法解出人眼模板的系数,如公式(3)所示:
再通过建立的人眼运动模型预测当前帧,也就是第N+1帧的人眼坐标位置,如公式(4)所示:
以当前帧预测的人眼坐标为中心的预设搜索范围内检测人眼,并获取当前帧准确的人眼坐标。再剔除人眼信息包内历史最久远的时间点以及对应的人眼坐标,即t0时刻及其对应的人眼坐标(u0,v0),把当前帧获取的准确的人眼坐标与时间点放入人眼信息包内,保持人眼信息包内的人眼点数量为N,为下一帧做重新拟合人眼运动模型作准备。
步骤S3,对人眼搜索区域进行基于双层特征级联SVM的人眼检测,并判断在人眼搜索区域内是检测到人眼。本步骤搜索范围是预测出的人眼区域,即在通过人眼运动模型而生成的人眼搜索区域的基础之上,再进行的搜索。如图4所示,通过HOG特征结合SVM为第一层人眼检测,再通过LBP特征结合SVM为第二层人眼检测,进而完成双层特征人眼检测。模仿人眼先轮廓后纹理的视觉特点,结合HOG特征善于描述形状的优点与LBP特征善于描述纹理的优点,有效提高人眼检测精度。本步骤具体包括以下步骤:
步骤S31,对在每个滑窗的人眼区域提取HOG特征向量,并通过主成分分析法降低HOG特征向量的向量维度。
其中,如图5所示,本步骤是在人眼区域内提取HOG特征向量,再通过PCA对所提取到的HOG特征向量降低向量维度,便于对特征的识别。本步骤将所需要检测的区域进一步缩小,便于更快识别特征。
步骤S32,通过SVM进行分类,生成第一层人眼区域。
其中,本步骤通过提取到的HOG特征向量结合SVM,对人眼的轮廓进行提取,进而完成第一层人眼检测,并生成第一层人眼区域。
步骤S33,若检测到第一层人眼区域,则对第一层人眼区域提取LBP特征向量,若未检测到第一层人眼区域,则在人眼搜索区域内没有将检测到人眼,此时进入步骤S4。
其中,在人眼睁开角度较小时,容易将眉毛和眼镜框等与人眼形状相似的物体识别成人眼,所以还需再一步对所获取的第一层人眼区域进行操作。此时再判断是否检测到第一层人眼区域,若检测到,则再提取LBP特征向量。LBP特征即局部二值模式,是一种用来描述图像局部纹理的特征,其具有旋转不变性和灰度不变性等显著的优点。本方法采用的是LBP的旋转等价模型特征,可以有效降低眼镜架和眉毛的干扰。
步骤S34,通过SVM进行分类,并生成第二层人眼区域。
其中,本步骤通过提取到的LBP特征向量结合SVM,完成对人眼纹理的提取,进而完成第二层人眼检测,并最终生成第二层人眼区域,检测结果如图6所示。若未检测到第二层人眼区域,则在人眼搜索区域内没有将检测到人眼,此时进入步骤S4。
步骤S35,若检测到第二层人眼区域,则取其中置信度最大的人眼区域为最终人眼区域,并判断在人眼搜索区域内是否检测到人眼,若未检测到第二层人眼区域,则判断在人眼搜索区域内没有检测到人眼,进入步骤S4。
置信度最大的人眼区域即为人眼概率最大的区域,则将该区域作为最终人眼区域。
步骤S3的检测方法与初始化的检测方法一致,只是所检测的区域不同,在初始化检测的过程中,所检测的区域是半张人脸,而在本步骤则是检测经人眼运动模型所预测的人眼搜索区域。所以关于本步骤的详细步骤如上所示,故再此不再赘述。
步骤S4,若在经过双层特征人眼检测之后,若检测到人眼,则更新人眼信息包并输出人眼坐标;若未检测到,则通过人眼信息包中的人眼模板在人眼搜索区域内匹配人眼,并输出人眼坐标。本步骤是为了判断经过双层特征人眼检测之后人眼搜索区域内是否检测到人眼,此时若是未检测到人眼,则再通过人眼模板匹配人眼,以此完成对人眼的快速定位。
步骤S4的具体步骤如下所示:
步骤S41,若步骤S3判断在人眼搜索区域内检测到人眼,则将人眼信息包的人眼模板的图像更新为最终人眼区域的图像,将最终人眼区域的中心点坐标作为当前人眼坐标,用当前人眼坐标更新人眼信息包中的人眼坐标集合,并输出当前人眼坐标。
其中人眼信息包中存储有历史人眼坐标集合,此时则是剔除历史人眼坐标集合中的历史最久远的人眼坐标,加入当前的人眼坐标,完成人眼信息包的更新,为下一次循环做准备。
步骤S42,若步骤S3判断在人眼搜索区域内未检测到人眼,则通过人眼模板在人眼搜索区域内匹配检测人眼。
其中,在通过双层人眼检测后,若在人眼搜索区域没有检测到人眼,则说明本次人眼检测存在漏检。此时则再通过人眼信息包中的人眼模板匹配检测人眼,以此降低系统的漏检率。根据预先设置的人眼模板,此时的人眼模板即为步骤S1或经过循环检测过后所生成的人眼信息包中的人眼模板,再对人眼搜索区域的人眼进行检测,以此来获取模板检测人眼坐标。
其中,人眼模板匹配方法如下所示:
人眼模板匹配主要采用相似性度量方法为归一化相关系数匹配法,归一化相关系数匹配法,将模板均值的相对值与图像的值的相关值进行匹配,度量函数的值越接近于1则说明目标和人眼模板的相似度越高,值为0则表示没有任何相关性。
步骤S42具体包括以下步骤:
步骤S421,若经过人眼模板匹配到人眼,则更新人眼模板与人眼坐标集合,,并输出人眼坐标。若人眼模板匹配检测到人眼,则以此时的人眼坐标更新人眼坐标集合,并以此时匹配到的人眼区域更新人眼模板,完成人眼信息包更新,并且输出人眼坐标。
步骤S422,若经过人眼模板未匹配到人眼,则返回步骤S1重新初始化。若此时通过人眼模板匹配依旧未检测到人眼,则说明未能获取到人眼,人眼运动模型已经不成立,此时则需回到步骤S1重新进行初始化。
一般来说,通过双层人眼检测出的人眼能给出高精度的人眼区域,短时间间隔的模板匹配将高精度的人眼区域作为模板也能提供较高的精度,因此以上综合的人眼检测系统相比单一特征的人眼检测能够提供更高的检测精度,降低漏检率。
本发明所提供的一种结合多特征级联SVM与人眼模板的人眼定位方法,通过滑窗搜索人眼过程中采用HOG特征结合SVM的第一层人眼检测,级联LBP特征结合SVM的第二层人眼检测,构成了一种双层特征人眼检测,模仿人眼先轮廓后纹理的视觉特点,结合HOG特征善于描述形状的优点与LBP特征善于描述纹理的优点,且HOG特征和LBP特征都对光照变化都较强的鲁棒性,有效提高人眼检测精度,并通过补充人眼模板匹配来降低漏检率。使得即使头部有较大的偏转也能检测出人眼,且降低了由形状相似的眼镜框,眉毛带来的影响,最后检测出的人眼同时满足HOG特征的形状约束和LBP特征的纹理约束,能有效提高人眼检测的精度。由于最后检测的人眼取的是两个级联分类器的结果的交集,不可避免的会提高了漏检,因此同时引入了人眼模板匹配算法,有效地降低了漏检率。整个人眼检测系统相比单一特征结合支持向量机的方法具有更高的检测精度,能适应更大的检测范围。人眼运动模型的人眼检测通过建立人眼运动模型来预测人眼出现的大致位置,缩小了人眼检测范围。该方法引入了历史人眼检测的结果对当前人眼检测的约束,有效克服了传统全图人眼检测的低实时性的缺点,并且在大部分时间里都省去了人脸检测的耗时,使得整个系统的实时性有所提高。
第二实施例
在本发明提供的结合多特征级联SVM与人眼模板的人眼定位方法之外,本发明还提供了一种结合多特征级联SVM与人眼模板的人眼定位系统。如图5所示,本系统包括以下模块:
人眼初始模块10,用于获取视频图像,并初始化视频图像,生成初始的人眼信息包并输出人眼坐标。
位置预测模块20,用于将人眼信息包内的人眼坐标集合拟合成人眼运动模型,预测当前视频图像上人眼所在位置,生成预测位置,并将预测位置的邻域作为人眼搜索区域。
特征检测模块30,用于对人眼搜索区域进行基于双层特征级联SVM的人眼检测,并判断在人眼搜索区域内是否检测到人眼。
模板检测模块40,用于获取特征检测模块30所判断是否检测到人眼的结果,若检测到人眼,则更新人眼信息包并输出人眼坐标;若未检测到人眼,则通过人眼信息包中的人眼模板在人眼搜索区域内匹配人眼,并输出人眼坐标。
其中,人眼初始模块10包括以下单元:
区域检测单元11,用于将视频图像通过人脸检测器检测出人脸区域,并从人脸区域中提取人眼检测区域。
第一层特征单元12,用于将人眼检测区域通过滑窗搜索人眼,对每个滑窗的人眼区域提取HOG特征向量,并降低HOG特征向量的向量维度,再通过SVM进行分类,生成第一层候选人眼区域,若未生成则返回区域模块检测单元11继续进行初始化。
第二层特征单元13,用于在检测到第一层候选人眼区域的情况下,对第一层候选人眼区域提取LBP特征向量,再通过SVM进行分类,生成第二层候选人眼区域,若未生成则返回区域模块检测单元11继续进行初始化。
信息输出单元14,用于在检测到第二层候选人眼区域的情况下,取置信度最大的人眼区域为最终人眼区域,将最终人眼区域的图像生成人眼模板,最终人眼区域的中心点坐标作为人眼坐标并生成初始的人眼信息包,并输出人眼坐标;在未检测到第二层候选人眼区域或是初始的人眼信息包的人眼坐标数量少于预设数量的情况下,则返回区域检测模块11继续进行初始化。
其中,特征检测模块30包括以下单元:
第一层特征提取单元31,用于对每个滑窗的人眼区域提取HOG特征向量,并通过主成分分析法降低HOG特征向量的向量维度,再通过SVM进行分类,生成第一层人眼区域。若未生成则判断在人眼搜索区域没有检测到眼睛,再进入模板检测模块40。
第二层特征提取单元32,用于在检测到第一层人眼区域的情况下,则对第一层人眼区域进行提取LBP特征向量,在未检测到第一层人眼区域的情况下,则进入模板检测模块40进行处理,再通过SVM进行分类,并生成第二层人眼区域。若未生成,则判断在人眼搜索区域没有检测到人眼,再进入模板检测模块40。
人眼区域生成单元33,用于在检测到第二层人眼区域的情况下,则取其中置信度最大的人眼区域为最终人眼区域,并判断在人眼搜索区域内是否检测到眼睛,若未检测到第二层人眼区域,则判断人眼区域内没有检测到人眼,再进入模板检测模块40。
其中,模板检测模块40包括以下单元:
坐标更新单元41,用于在特征检测模块30判断出人眼搜索区域检测到人眼的情况下,将人眼信息包的人眼模板的图像更新为最终人眼区域的图像,将最终人眼区域的中心点坐标作为当前人眼坐标,用当前人眼坐标更新人眼信息包中的人眼坐标集合,并输出当前人眼坐标。
模板匹配单元42,用于在特征检测模块30判断出人眼检索区域内未检测人眼的情况下,则通过人眼模板在人眼搜索区域内匹配检测人眼。
其中,模板匹配单元42还包括以下模块:
匹配成功子单元421,用于在经过人眼模板匹配到人眼的情况下,则更新人眼模板与人眼坐标集合,并输出人眼坐标。
匹配失败子单元422,用于在经过人眼模板未匹配到人眼的情况下,则返回人眼初始模块10重新进行初始化操作。
系统所设置的相关模块和单元用于执行上述结合多特征级联SVM与人眼模板的人眼定位方法中的相关指令,由于上述已详细阐述,故在此不再赘述。
本发明所提供的一种结合多特征级联SVM与人眼模板的人眼定位系统,通过人眼初始模块10对人眼进行检测,再通过人眼初始模块10所输出的人眼坐标集合拟合成的人眼运动模型进行人眼位置预测,再通过特征检测模块30构成了一种双层特征人眼检测,模仿人眼先轮廓后纹理的视觉特点,结合HOG特征善于描述形状的优点与LBP特征善于描述纹理的优点,且HOG特征和LBP特征都对光照变化都较强的鲁棒性,有效提高人眼检测精度,最后通过模板检测模块40补充人眼模板匹配来降低漏检率。
综上所述,以上仅为本发明较佳的具体实施方式的详细说明,而非对本发明保护范围的限制。在实际应用时,本领域技术人员完全可依据本技术方案做出若干调整。凡在本发明所阐述的原理的前提下所做的任何修改、等同替换、局部应用等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种结合多特征级联SVM与人眼模板的人眼定位方法,其特征在于,所述方法具体包括以下步骤:
S1,获取视频图像,并初始化所述视频图像,生成初始的人眼信息包并输出人眼坐标,所述人眼信息包包括人眼模板的图像与满足预设数量的人眼坐标集合;
S2,将所述人眼坐标集合拟合成人眼运动模型,预测当前视频图像上人眼所在位置,生成预测位置,并将所述预测位置及其邻域作为人眼搜索区域;
S3,对所述人眼搜索区域进行基于双层特征级联SVM的人眼检测,并判断在所述人眼搜索区域内是否检测到人眼;
所述S3的步骤具体包括:
S31,对每个滑窗的人眼区域提取HOG特征向量,并通过主成分分析法降低所述HOG特征向量的向量维度;
S32,通过SVM进行分类,生成第一层候选人眼区域;
S33,若检测到所述第一层候选人眼区域,则对所述第一层候选人眼区域提取LBP特征向量,若未检测到所述第一层候选人眼区域,则判断在所述人眼搜索区域内没有检测到人眼,进入步骤S4;
S34,通过SVM进行分类,并生成第二层候选人眼区域;
S35,若检测到所述第二层人眼区域,则取其中置信度最大的人眼区域为最终人眼区域,并判断在所述人眼搜索区域内是否检测到人眼,若未检测到所述第二层人眼区域,则判断在所述人眼搜索区域内没有检测到人眼,进入步骤S4;
S4,若检测到,则更新所述人眼信息包并输出人眼坐标;若未检测到,则通过所述人眼信息包中的人眼模板在所述人眼搜索区域内匹配人眼,并输出人眼坐标;
所述S4的步骤具体包括:
S41,若所述步骤S3判断在所述人眼搜索区域内检测到人眼,则将所述人眼信息包的所述人眼模板的图像更新为最终人眼区域的图像,将所述最终人眼区域的中心点坐标作为当前人眼坐标,用所述当前人眼坐标更新所述人眼信息包中的所述人眼坐标集合,并输出所述当前人眼坐标;
S42,若所述步骤S3判断在所述人眼搜索区域内没有检测到人眼,则通过所述人眼信息包的所述人眼模板,在所述人眼搜索区域内匹配检测人眼。
2.根据权利要求1所述的结合多特征级联SVM与人眼模板的人眼定位方法,其特征在于,所述S1的步骤具体包括:
S11,将视频图像通过人脸检测器检测出人脸区域,并从所述人脸区域中提取人眼检测区域;
S12,将所述人眼检测区域通过滑窗搜索人眼,对每个滑窗的人眼区域提取HOG特征向量,并降低所述HOG特征向量的向量维度,再通过SVM进行分类,生成第一层候选人眼区域,若未生成则返回步骤S11继续进行初始化;
S13,若检测到所述第一层候选人眼区域,则对所述第一层候选人眼区域提取LBP特征向量,再通过SVM进行分类,生成第二层候选人眼区域,若未生成则返回步骤S11继续进行初始化;
S14,若检测到所述第二层候选人眼区域,取置信度最大的人眼区域为最终人眼区域,将所述最终人眼区域的图像生成为人眼模板,将所述最终人眼区域的中心点坐标作为人眼坐标并生成初始的人眼信息包,并输出所述人眼坐标,若未检测到所述第二层候选人眼区域或是初始的人眼信息包内的人眼坐标数量还少于预设数量,则返回步骤S11继续进行初始化。
3.根据权利要求2所述的结合多特征级联SVM与人眼模板的人眼定位方法,其特征在于,所述降低所述HOG特征向量的向量维度采用主成分分析法。
4.根据权利要求1所述的结合多特征级联SVM与人眼模板的人眼定位方法,其特征在于,所述步骤S42还包括:S421,若经过所述人眼模板匹配到人眼,则更新所述人眼模板与所述人眼坐标集合,并输出当前人眼坐标;S422,若经过所述人眼模板未匹配到人眼,则返回步骤S1重新初始化。
5.一种结合多特征级联SVM与人眼模板的人眼定位系统,其特征在于,所述系统用于实现权利要求1-4任一项所述的方法,包括以下模块:
人眼初始化模块,用于获取视频图像,并初始化视频图像,生成初始的人眼信息包并输出人眼坐标;
位置预测模块,用于将所述人眼坐标集合拟合成人眼运动模型,预测当前视频图像上人眼所在位置,生成预测位置,并将所述预测位置及其邻域作为人眼搜索区域;
特征检测模块,用于对所述人眼搜索区域进行基于双层特征级联SVM的人眼检测,并判断在所述人眼搜索区域内是否检测到人眼;
模板检测模块,用于获取所述特征检测模块是否检测到人眼的结果,若检测到人眼,则更新所述人眼信息包并输出人眼坐标;若没有检测到人眼,则通过所述人眼信息包中的人眼模板在所述人眼搜索区域内匹配人眼,更新所述人眼信息包并输出人眼坐标。
6.根据权利要求5所述的结合多特征级联SVM与人眼模板的人眼定位系统,其特征在于,所述人眼初始化模块包括以下单元:
区域检测单元,用于将视频图像通过人脸检测器检测出人脸区域,并从所述人脸区域中提取人眼检测区域;
第一层特征单元,用于将所述人眼检测区域通过滑窗搜索人眼,对每个滑窗的人眼区域提取HOG特征向量,并降低HOG特征向量的向量维度,再通过SVM进行分类,生成第一层候选人眼区域,若未生成则返回所述区域模块检测单元继续进行初始化;
第二层特征单元,用于在检测到所述第一层候选人眼区域的情况下,对所述第一层候选人眼区域提取LBP特征向量,再通过SVM进行分类,生成第二层候选人眼区域,若未生成则返回所述区域模块检测单元继续进行初始化;
信息输出单元,用于在检测到所述第二层候选人眼区域的情况下,取置信度最大的人眼区域为最终人眼区域,将所述最终人眼区域的图像生成人眼模板,所述最终人眼区域的中心点坐标作为人眼坐标并生成初始的人眼信息包,并输出所述人眼坐标;在未检测到所述第二层候选人眼区域或是所述初始的人眼信息包的人眼坐标数量少于预设数量的情况下,则返回所述区域检测模块继续进行初始化。
7.根据权利要求5所述的结合多特征级联SVM与人眼模板的人眼定位系统,其特征在,所述特征检测模块包括以下单元:
第一层特征提取单元,用于对每个滑窗的人眼区域提取HOG特征向量,并通过主成分分析法降低所述HOG特征向量的向量维度,再通过SVM进行分类,生成第一层人眼区域,若未生成则判断在所述人眼搜索区域内没有检测到人眼,再进入所述模板检测模块;
第二层特征提取单元,用于在检测到所述第一层人眼区域的情况下,则对所述第一层人眼区域进行提取LBP特征向量,在未检测到所述第一层人眼区域的情况下,则进入所述模板检测模块进行处理,再通过SVM进行分类,并生成第二层人眼区域,若未生成,则判断在所述人眼搜索区域内没有检测到人眼,再进入所述模板检测模块;
人眼区域生成单元,用于在检测到所述第二层人眼区域的情况下,则取其中置信度最大的人眼区域为最终人眼区域,并判断在所述人眼搜索区域内是否检测到人眼,若未检测到所述第二层人眼区域,则判断在所述人眼搜索区域内没有检测到人眼,再进入所述模板检测模块。
8.根据权利要求5所述的结合多特征级联SVM与人眼模板的人眼定位系统,其特征在,所述模板检测模块包括以下单元:
坐标更新单元,用于在所述特征检测模块判断出在所述人眼搜索区域检测到人眼的情况下,将所述人眼信息包的人眼模板的图像更新为最终人眼区域的图像,将所述最终人眼区域的中心点坐标作为当前人眼坐标,用所述当前人眼坐标更新所述人眼信息包中的人眼坐标集合,并输出所述当前人眼坐标;
模板匹配单元,用于在所述特征检测模块判断出所述人眼检索区域内未检测到人眼的情况下,则通过所述人眼模板在所述人眼搜索区域内匹配检测人眼。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010909746.XA CN112183215B (zh) | 2020-09-02 | 2020-09-02 | 一种结合多特征级联svm与人眼模板的人眼定位方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010909746.XA CN112183215B (zh) | 2020-09-02 | 2020-09-02 | 一种结合多特征级联svm与人眼模板的人眼定位方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112183215A CN112183215A (zh) | 2021-01-05 |
CN112183215B true CN112183215B (zh) | 2024-08-09 |
Family
ID=73924986
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010909746.XA Active CN112183215B (zh) | 2020-09-02 | 2020-09-02 | 一种结合多特征级联svm与人眼模板的人眼定位方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112183215B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117290537B (zh) * | 2023-09-28 | 2024-06-07 | 腾讯科技(深圳)有限公司 | 图像搜索方法、装置、设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105512630A (zh) * | 2015-12-07 | 2016-04-20 | 天津大学 | 近实时效应的人眼检测与定位方法 |
CN106897659A (zh) * | 2015-12-18 | 2017-06-27 | 腾讯科技(深圳)有限公司 | 眨眼运动的识别方法和装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101037758B1 (ko) * | 2007-01-17 | 2011-05-27 | 뷰웨이 주식회사 | 다중 해상도 가버 특징 벡터를 이용한 눈좌표 검출 방법 |
CN109101881B (zh) * | 2018-07-06 | 2021-08-20 | 华中科技大学 | 一种基于多尺度时序图像的实时眨眼检测方法 |
CN111582086A (zh) * | 2020-04-26 | 2020-08-25 | 湖南大学 | 基于多特征的疲劳驾驶识别方法及系统 |
-
2020
- 2020-09-02 CN CN202010909746.XA patent/CN112183215B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105512630A (zh) * | 2015-12-07 | 2016-04-20 | 天津大学 | 近实时效应的人眼检测与定位方法 |
CN106897659A (zh) * | 2015-12-18 | 2017-06-27 | 腾讯科技(深圳)有限公司 | 眨眼运动的识别方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112183215A (zh) | 2021-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106682598B (zh) | 一种基于级联回归的多姿态的人脸特征点检测方法 | |
Valle et al. | A deeply-initialized coarse-to-fine ensemble of regression trees for face alignment | |
CN108268838B (zh) | 人脸表情识别方法及人脸表情识别系统 | |
CN108520226B (zh) | 一种基于躯体分解和显著性检测的行人重识别方法 | |
WO2016110005A1 (zh) | 基于灰度和深度信息的多层融合的多模态人脸识别装置及方法 | |
Hatem et al. | A survey of feature base methods for human face detection | |
CN104123543B (zh) | 一种基于人脸识别的眼球运动识别方法 | |
CN108182397B (zh) | 一种多姿态多尺度的人脸验证方法 | |
Srisuk et al. | A new robust face detection in color images | |
CN109255289B (zh) | 一种基于统一式生成模型的跨衰老人脸识别方法 | |
CN109598196B (zh) | 一种多形变多姿态人脸序列的特征点定位方法 | |
CN107944431A (zh) | 一种基于运动变化的智能识别方法 | |
CN110991389A (zh) | 判断目标行人在非重叠相机视角中出现的匹配方法 | |
Kheirkhah et al. | A hybrid face detection approach in color images with complex background | |
CN110110603A (zh) | 一种基于面部生理信息的多模态唇读方法 | |
Xia et al. | Face occlusion detection using deep convolutional neural networks | |
Song et al. | Feature extraction and target recognition of moving image sequences | |
Assiri et al. | Face emotion recognition based on infrared thermal imagery by applying machine learning and parallelism | |
CN112381047A (zh) | 一种人脸表情图像的增强识别方法 | |
Gürel et al. | Design of a face recognition system | |
Chen et al. | A multi-scale fusion convolutional neural network for face detection | |
CN112183215B (zh) | 一种结合多特征级联svm与人眼模板的人眼定位方法及系统 | |
Li et al. | Foldover features for dynamic object behaviour description in microscopic videos | |
Gürel | Development of a face recognition system | |
Soni et al. | A Review of Recent Advances Methodologies for Face Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20240703 Address after: 401147 Building 5-1, No. 24 Changhui Road, Yuzui Town, Liangjiang New Area, Jiangbei District, Chongqing Applicant after: Chongqing Lilong Zhongbao Intelligent Technology Co.,Ltd. Country or region after: China Address before: 400020 Jiangbei District, Chongqing electric measuring Village No. 4 Applicant before: Chongqing Lilong technology industry (Group) Co.,Ltd. Country or region before: China |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |