CN112766159A - 一种基于多特征融合的跨数据库微表情识别方法 - Google Patents
一种基于多特征融合的跨数据库微表情识别方法 Download PDFInfo
- Publication number
- CN112766159A CN112766159A CN202110073665.5A CN202110073665A CN112766159A CN 112766159 A CN112766159 A CN 112766159A CN 202110073665 A CN202110073665 A CN 202110073665A CN 112766159 A CN112766159 A CN 112766159A
- Authority
- CN
- China
- Prior art keywords
- micro
- optical flow
- frame
- feature
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000004927 fusion Effects 0.000 title claims abstract description 15
- 230000003287 optical effect Effects 0.000 claims abstract description 95
- 238000010586 diagram Methods 0.000 claims abstract description 19
- 210000000003 hoof Anatomy 0.000 claims abstract description 16
- 230000001815 facial effect Effects 0.000 claims abstract description 11
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 8
- 238000013528 artificial neural network Methods 0.000 claims abstract description 7
- 230000014509 gene expression Effects 0.000 claims description 36
- 238000010606 normalization Methods 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 18
- 239000013598 vector Substances 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 14
- 238000011176 pooling Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 11
- 230000008451 emotion Effects 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 7
- 238000006073 displacement reaction Methods 0.000 claims description 5
- 230000001419 dependent effect Effects 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000017105 transposition Effects 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000001097 facial muscle Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明属于计算机视觉领域,具体涉及一种基于多特征融合的跨数据库微表情识别方法,该方法包括:获取两个数据集中的起始帧和顶点帧;对起始帧和顶点帧的人脸面部区域进行裁剪,得到人脸面部区域图;根据预处理后的起始帧和顶点帧计算人脸关键点特征图和光流特征,并计算光流特征的方向、幅度和光学应变;将获得的光流幅度特征图和方向特征图进行加权处理,获得HOOF特征图;将人脸关键点特征图、光学应变特征图和HOOF特征图构成一个三维特征块并输入到一个三维卷积神经网络进行特征学习,获得微表情识别结果;本发明很好的利用较浅的卷积神经网络有效学习多特征融合的微表情特征,从而提升了面部微表情识别的准确率及效率。
Description
技术领域
本发明属于计算机视觉领域,具体涉及一种基于多特征融合的跨数据库微表情识别方法。
背景技术
人的面部表情主要分为宏表情和微表情两种。面部表情是非语言交流的一种形式,由情绪状态下面部肌肉收缩产生。不同的肌肉运动和方式最终反映出来不同类型的情感。然而,宏表情并不能准确地暗示一个人的情绪状态,因为它很容易被伪造。而微表情是一种不能被神经系统控制的短暂的面部表情,能够反映人的真实情感且无法隐藏。微表情在心理学、公共安全、临床医学、刑事审讯等具有很多潜在的应用。但是它持续时间大约只有0.04s~0.2s,且强度微弱,很难被人的肉眼识别出来,即使是经过专业训练的人员,其微表情的识别率也不高,且要花费大量的时间成本。所以基于计算机自动识别微表情的研究成为热点。
目前,自动微表情识别主要有传统的机器学习方法和深度学习方法。传统的微表情识别算法主要利用不同的特征提取器提取微表情特征,之后将提取到的特征输入到分类器,利用分类器学习训练样本进行微表情的识别。但是传统方法提取特征方式复杂,需要手动设计特征描述子,由于微表情的运动是局部性的,因此传统特征提取方法也很难完全捕捉面部的微弱变化,同时,特征的计算量较大,而且分类器的选择对分类性能的影响很大。所以,传统的微表情识别方法存在一定的局限性。
近年来,深度神经网络在人脸微表情识别方面取得了显著进展。深度学习的鲁棒性带来了比传统手工方法更有前途的性能。然而,深度学习需要大量的数据,微表情数据却较为缺乏,存在识别难度大的问题。
发明内容
为解决以上现有技术存在的问题,本发明提出了一种基于多特征融合的跨数据库微表情识别方法,该方法包括:获取人脸微表情图像,对人脸微表情图像进行预处理;根据预处理后的人脸图像计算三种特征图,将三种特征图进行融合;将融合后的特征图输入到训练好的微表情识别模型中,得到微表情识别结果;
对微表情识别模型进行训练的过程包括:
S1:分别获取CASMEII数据集和SAMM数据集的起始帧、顶点帧以及每个数据对应的情绪标签;
S2:对起始帧和顶点帧的人脸面部区域进行裁剪,得到仅包含人脸面部区域的图像;
S3:对人脸面部区域图像进行归一化处理;所述归一化处理包括尺度归一化处理和灰度归一化处理;
S4:根据归一化处理后人脸面部区域图像的起始帧和顶点帧计算人脸关键点特征图LMF;
S5:根据归一化处理后人脸面部区域图像的起始帧和顶点帧计算人脸面部区域图像的光流特征;根据光流特征计算光流方向特征图p、幅度特征图m和光学应变特征图ε;所述光流特征包括水平光流特征和垂直光流特征;
S6:将光流方向特征图p与幅度特征图m进行加权处理,得到HOOF特征图;
S7:将人脸关键点特征图LMF、光学应变特征图ε以及HOOF特征图构成三维特征块,并将三维特征块输入到三维卷积神经网络进行特征学习,得到微表情识别结果;
S8:根据微表情识别结果计算微表情识别模型的损失函数;不断调整损失函数的参数,当损失函数的值最小时,完成模型的训练。
优选的,获取CASMEII数据集和SAMM数据集的起始帧和顶点帧的过程包括:数据集中给出了微表情视频序列的起始帧和顶点帧索引,根据索引直接获取两帧图片以及情绪标签;起始帧为被观察者开始出现微表情的那一帧图像,顶点帧为被观察者的微表情表现强度最显著的那一帧图像。
优选的,对起始帧和顶点帧的人脸面部区域进行裁剪包括采用dlib库的人脸检测器对起始帧和顶点帧进行人脸面部区域的检测,采用人脸地标检测器对起始帧和顶点帧的68个人脸面部关键点进行检测,根据人脸面部关键点获取裁剪区域的位置及裁剪区域的大小,得到仅包含人脸面部区域的图像。
优选的,计算人脸关键点特征图LMF的公式为:
LMFt(i,j)=||p(i,t)-p(j,t)||2-||p(i,t-Δt)-p(j,t-Δt)||2
优选的,计算人脸面部区域图像的光流特征以及各个特征图的过程包括:
步骤1:采用TV-L1近似光流法计算起始帧和顶点帧的面部区域图像,得到光流场的水平光流和垂直光流;
步骤2:将水平光流和垂直光流转化为光流向量p=(u,v),并将光流向量的坐标转换为极坐标,并根据极坐标计算光流运动的方向θx,y和强度ρx,y;
步骤3:根据光流向量p=(u,v)计算光学应变特征图ε;
步骤4:根据光学应变特征图ε计算幅度特征图m。
进一步的,光流运动的方向θx,y和强度ρx,y的公式为:
进一步的,计算光学应变特征图ε的公式为:
优选的,得到HOOF特征图的过程包括:将光流幅度特征图和光流方向特征图平均分割成5*5的不重叠的块;对方向θx,y∈[-π,π]进行bin处理,并根据幅度ρx,0的大小进行加权,得到HOOF特征图;其中每个直方图bin的范围为:
优选的,三维卷积神经网络包括:三维卷积神经网络包括三条并行流、卷积层、最大池化层、FC全连接层以及softmax层;三条并行流中每条流由一个卷积层和一个最大池化层组成,每条流的卷积层的卷积核个数分别为3、5、8,卷积核尺寸均为3*3*3;采用samepadding保持输入输出大小相同,stride=1;将28×28×3的三维特征块输入三维卷积神经网络,三条并行流得到的输出分别为28×28×3、28×28×5、28×28×8的数据;将卷积层输出的数据分别经过2*2*2,stride=2的最大池化层,输出分别为14×14×3、14×14×5、14×14×8的数据;将三条流的输出进行连接,形成一个14×14×16的特征块,再经过一个2*2*2,stride=2的最大池化层,输出一个7*7*16维的特征,将其展平为784*1维的特征向量;将784*1维的特征向量经过softmax函数进行微表情识别分类。
优选的,微表情识别模型的损失函数为:
本发明针对微表情持续时间短、强度微弱、样本数据量少的问题,在跨数据库实验的基础上,提出了传统的微表情识别方法与使用深度学习技术相结合来进行微表情识别。通过传统方法计算得到微表情的多种特征图,并将多种特征融合送入卷积神经网络进行进一步特征学习,克服直接使用原始微表情序列进行微表情识别的缺点。该发明有效的提高了微表情识别的准确率以及效率。
附图说明
图1为本发明的总体流程图;
图2为本发明的样本图;
图3为本发明的仅含面部区域的图片;
图4为本发明计算的光流特征图;
图5为本发明计算的光应变特征图;
图6为HOOF特征图示例;
图7为本发明设计的3D卷积神经网络。
具体实施方式
为了更清楚的说明本发明实施例或现有技术中的技术方案,下面将结合附图,对本发明实施例中的技术方案进行清楚、完整地描述,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在不付出创造性劳动前提下所获得的其他实施例,都属于本发明保护的范围。
一种基于多特征融合的跨数据库微表情识别方法,该方法包括:获取人脸微表情图像,对人脸微表情图像进行预处理;根据预处理后的人脸图像计算三种特征图,将三种特征图进行融合;将融合后的特征图输入到训练好的微表情识别模型中,得到微表情识别结果;对微表情识别模型进行训练的过程如图1所示,其具体过程包括:
S1:分别获取CASMEII数据集和SAMM数据集的起始帧、顶点帧以及每个数据对应的情绪标签;
S2:采用dlib库自带的人脸检测器对起始帧和顶点帧的人脸面部区域进行裁剪,得到仅包含人脸面部区域的图像;
S3:对人脸面部区域图像进行归一化处理;所述归一化处理包括尺度归一化处理和灰度归一化处理;
S4:根据归一化处理后人脸面部区域图像的起始帧和顶点帧计算人脸关键点特征图LMF;
S5:根据归一化处理后人脸面部区域图像的起始帧和顶点帧计算人脸面部区域图像的光流特征;根据光流特征计算光流方向特征图p、幅度特征图m和光学应变特征图ε;所述光流特征包括水平光流特征和垂直光流特征;
S6:将光流方向特征图p与幅度特征图m平均分割成不重合的5*5的块,在每个块内,对方向进行bin处理。根据每个像素移动的幅度大小对方向进行加权处理,得到HOOF特征图;
S7:将人脸关键点特征图LMF、光学应变特征图ε以及HOOF特征图构成三维特征块,并将三维特征块输入到三维卷积神经网络进行特征学习,得到微表情识别结果;
S8:根据微表情识别结果计算微表情识别模型的损失函数;不断调整损失函数的参数,当损失函数的值最小时,完成模型的训练。
如图2所示,图2中的a图像为Happiness样本的起始帧,图2中的b图像为Happiness样本的顶点帧。由于对微表情的研究是基于视频的,并不是一张单独的图片,所以对于给出的样本序列,可以直接根据索引选择微表情的起始帧和顶点帧以及对应的情绪标签。
对起始帧和顶点帧分别提取面部区域图像,然后进行尺度归一化和灰度归一化操作。具体步骤包括:
步骤1:使用dlib库中包含的人脸检测器和人脸关键点检测器对起始帧和顶点帧分别检测人脸面部区域并进行68个人脸关键点检测,根据检测的68个面部关键点,获取裁剪区域的位置及裁剪区域的大小,得到只包含面部区域的图像,如图3所示,其中图3的a图像为起始帧的面部区域图,图3中的b图像为顶点帧的面部区域图像。
步骤2:对仅包含人脸面部区域的图像进行几何归一化和灰度归一化操作。
根据预处理后的起始帧和顶点帧计算人脸关键点特征图LMF,使用关键点的优点在于不受输入视频中的人脸形状、性别、年龄和亮度等人物或者背景特征的影响,使关注点放在面部运动上。计算人脸关键点特征图LMF的公式为:
LMFt(i,j)=||p(i,t)-p(j,t)||2-||p(i,t-Δt)-p(j,t-Δt)||2
其中,p(i,t)是第t帧里的第i个人脸关键点,这里i=1,2…68,起始帧对应t-Δt时刻的帧,顶点帧对应t时刻的帧。
优选的,由于人脸有68关键点,因此对对人脸图像采集68个关键点,人脸关键点特征图LMF的尺寸大小为68*68。
根据预处理后的起始帧和顶点帧计算人脸面部区域图像的光流特征以及各个特征图的过程包括:
步骤1:采用TV-L1近似光流法计算起始帧和顶点帧的面部区域图像,得到光流场的水平光流和垂直光流;如图4所示,其中图4的a图像为水平光流图,图4的b图像为垂直光流图。假设在点(x,y,t)处的图像像素强度为I(x,y,t),经过时间Δt,像素点移动到点(x+Δx,y+Δy,t+Δt)位置,此时该像素强度为I(x+Δx,y+Δy,t+Δt);由亮度守恒可知:
I(x,y,t)=I(x+Δx,y+Δy,t+Δt)
其中,Δx=ux,yΔt,Δy=vx,yΔt,ux,y和vx,y分别为需要估计的水平光流和垂直光流,Δx表示像素在水平方向的位移,Δy表示像素在垂直方向的位移。
步骤2:将水平光流和垂直光流转化为光流向量p=(u,v),并将光流向量的坐标转换为极坐标,并根据极坐标计算光流运动的方向θx,y和强度ρx,y;计算公式为:
其中,ρx,y为像素移动的大小,θx,y为像素移动的方向,u(x,y)表示,v(x,y)表示。
步骤3:根据光流向量p=(u,v)计算光学应变特征图ε;光学应变是光流的导数,它能够正确表征运动连续的帧之间可变性物体的微量运动,如图5所示。光学应变ε的定义为:
其中,对角应变分量(εxx,εyy)是法向应变分量,(εxy,εyx)是切向应变分量。法线应变分量度量光流沿x和y维度的变化,而切线应变分量度量沿两个轴的形变引起的角度变化。
步骤4:根据光学应变特征图ε计算幅度特征图m。其中法线和切线应变分量的平方和来可以用来计算每个像素的光应变的幅度大小,其计算公式为:
将光流幅度特征图和光流方向特征图平均分割成5*5的不重叠的块,对方向θx,y∈[-π,π]进行bin处理,并根据对应的幅度ρx,y的大小进行加权,得到HOOF特征,如图6所示。每个直方图bin的范围为:
其中,bin c∈{1,2…C},C表示直方图bin的总数。
如图7所示,本发明的三维卷积神经网络为一个小而浅的卷积神经网络;该网络有三条并行流,每条流由一个卷积层和一个池化层组成,每条流有不同的卷积核个数,分别为3、5、8,卷积核尺寸均为3*3*3,采用same padding保持输入输出大小相同,stride=1。将人脸关键点特征图LMF、与光学应变ε、HOOF特征图重采样为28*28*3的三维特征块Θ={LMF,ε,HOOF}中,三条并行流得到的输出分别为28×28×3、28×28×5、28×28×8;然后,分别经过2*2*2,stride=2的最大池化层,输出分别为14×14×3、14×14×5、14×14×8;将三条流的输出进行连接,形成一个14×14×16的特征块,再经过一个2*2*2,stride=2的最大池化层,输出一个7*7*16维的特征,将其展平为784*1维的特征向量,与400个节点的全连接层相连,最后经过softmax函数进行微表情识别分类。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于计算机可读存储介质中,存储介质可以包括:ROM、RAM、磁盘或光盘等。
以上所举实施例,对本发明的目的、技术方案和优点进行了进一步的详细说明,所应理解的是,以上所举实施例仅为本发明的优选实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内对本发明所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于多特征融合的跨数据库微表情识别方法,其特征在于,包括:获取人脸微表情图像,对人脸微表情图像进行预处理;根据预处理后的人脸图像计算三种特征图,将三种特征图进行融合;将融合后的特征图输入到训练好的微表情识别模型中,得到微表情识别结果;
对微表情识别模型进行训练的过程包括:
S1:分别获取CASMEII数据集和SAMM数据集的起始帧、顶点帧以及每个数据对应的情绪标签;
S2:对起始帧和顶点帧的人脸面部区域进行裁剪,得到仅包含人脸面部区域的图像;
S3:对人脸面部区域图像进行归一化处理;所述归一化处理包括尺度归一化处理和灰度归一化处理;
S4:根据归一化处理后人脸面部区域图像的起始帧和顶点帧计算人脸关键点特征图LMF;
S5:根据归一化处理后人脸面部区域图像的起始帧和顶点帧计算人脸面部区域图像的光流特征;根据光流特征计算光流方向特征图p、幅度特征图m和光学应变特征图ε;所述光流特征包括水平光流特征和垂直光流特征;
S6:将光流方向特征图p与幅度特征图m进行加权处理,得到HOOF特征图;
S7:将人脸关键点特征图LMF、光学应变特征图ε以及HOOF特征图构成三维特征块,并将三维特征块输入到三维卷积神经网络进行特征学习,得到微表情识别结果;
S8:根据微表情识别结果计算微表情识别模型的损失函数;不断调整损失函数的参数,当损失函数的值最小时,完成模型的训练。
2.根据权利要求1所述的一种基于多特征融合的跨数据库微表情识别方法,其特征在于,获取CASMEII数据集和SAMM数据集的起始帧和顶点帧的过程包括:数据集中给出了微表情视频序列的起始帧和顶点帧索引,根据索引直接获取两帧图片以及情绪标签;起始帧为被观察者开始出现微表情的那一帧图像,顶点帧为被观察者的微表情表现强度最显著的那一帧图像。
3.根据权利要求1所述的一种基于多特征融合的跨数据库微表情识别方法,其特征在于,对起始帧和顶点帧的人脸面部区域进行裁剪包括采用dlib库的人脸检测器对起始帧和顶点帧进行人脸面部区域的检测,采用人脸地标检测器对起始帧和顶点帧的68个人脸面部关键点进行检测,根据人脸面部关键点获取裁剪区域的位置及裁剪区域的大小,得到仅包含人脸面部区域的图像。
4.根据权利要求1所述的一种基于多特征融合的跨数据库微表情识别方法,其特征在于,计算人脸关键点特征图LMF的公式为:
LMFt(i,j)=||p(i,t)-p(j,t)||2-||p(i,t-Δt)-p(j,t-Δt)||2
其中,p(i,t)表示第t帧里的第i个人脸关键点,Δt表示一段时间间隔。
5.根据权利要求1所述的一种基于多特征融合的跨数据库微表情识别方法,其特征在于,计算人脸面部区域图像的光流特征以及各个特征图的过程包括:
步骤1:采用TV-L1近似光流法计算起始帧和顶点帧的面部区域图像,得到光流场的水平光流和垂直光流;
步骤2:将水平光流和垂直光流转化为光流向量p=(u,v),并将光流向量的坐标转换为极坐标,并根据极坐标计算光流运动的方向θx,y和强度ρx,y;
步骤3:根据光流向量p=(u,v)计算光学应变特征图ε;
步骤4:根据光学应变特征图ε计算幅度特征图m。
9.根据权利要求1所述的一种基于多特征融合的跨数据库微表情识别方法,其特征在于,三维卷积神经网络包括三条并行流、卷积层、最大池化层、FC全连接层以及softmax层;三条并行流中每条流由一个卷积层和一个最大池化层组成,每条流的卷积层的卷积核个数分别为3、5、8,卷积核尺寸均为3*3*3;采用same padding保持输入输出大小相同,stride=1;将28×28×3的三维特征块输入三维卷积神经网络,三条并行流得到的输出分别为28×28×3、28×28×5、28×28×8的数据;将卷积层输出的数据分别经过2*2*2,stride=2的最大池化层,输出分别为14×14×3、14×14×5、14×14×8的数据;将三条流的输出进行连接,形成一个14×14×16的特征块,再经过一个2*2*2,stride=2的最大池化层,输出一个7*7*16维的特征,将其展平为784*1维的特征向量;将784*1维的特征向量经过softmax函数进行微表情识别分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110073665.5A CN112766159A (zh) | 2021-01-20 | 2021-01-20 | 一种基于多特征融合的跨数据库微表情识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110073665.5A CN112766159A (zh) | 2021-01-20 | 2021-01-20 | 一种基于多特征融合的跨数据库微表情识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112766159A true CN112766159A (zh) | 2021-05-07 |
Family
ID=75703436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110073665.5A Pending CN112766159A (zh) | 2021-01-20 | 2021-01-20 | 一种基于多特征融合的跨数据库微表情识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112766159A (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113361415A (zh) * | 2021-06-08 | 2021-09-07 | 浙江工商大学 | 一种基于众包的微表情数据集收集方法 |
CN113469153A (zh) * | 2021-09-03 | 2021-10-01 | 中国科学院自动化研究所 | 基于微表情、肢体动作和语音的多模态情感识别方法 |
CN113537008A (zh) * | 2021-07-02 | 2021-10-22 | 江南大学 | 基于自适应运动放大和卷积神经网络的微表情识别方法 |
CN113902774A (zh) * | 2021-10-08 | 2022-01-07 | 无锡锡商银行股份有限公司 | 一种稠密度光流特征在视频中的面部表情检测方法 |
CN113901895A (zh) * | 2021-09-18 | 2022-01-07 | 武汉未来幻影科技有限公司 | 一种车辆的开门动作识别方法、装置以及处理设备 |
CN113920571A (zh) * | 2021-11-06 | 2022-01-11 | 北京九州安华信息安全技术有限公司 | 基于多运动特征融合的微表情识别方法及装置 |
CN114005157A (zh) * | 2021-10-15 | 2022-02-01 | 武汉烽火信息集成技术有限公司 | 一种基于卷积神经网络的像素位移向量的微表情识别方法 |
CN114333002A (zh) * | 2021-12-27 | 2022-04-12 | 南京邮电大学 | 基于图深度学习和人脸三维重建的微表情识别方法 |
CN114913461A (zh) * | 2022-05-19 | 2022-08-16 | 广东电网有限责任公司 | 情绪识别方法、装置、终端设备及计算机可读存储介质 |
CN115661850A (zh) * | 2022-12-29 | 2023-01-31 | 武汉大学 | 一种融合多特征的印章识别方法 |
CN116311472A (zh) * | 2023-04-07 | 2023-06-23 | 湖南工商大学 | 基于多层次图卷积网络的微表情识别方法及装置 |
CN116824280A (zh) * | 2023-08-30 | 2023-09-29 | 安徽爱学堂教育科技有限公司 | 基于微表情变化的心理预警方法 |
CN116825365A (zh) * | 2023-08-30 | 2023-09-29 | 安徽爱学堂教育科技有限公司 | 基于多角度微表情的心理健康分析方法 |
CN117392727A (zh) * | 2023-11-02 | 2024-01-12 | 长春理工大学 | 一种基于对比学习及特征解耦的人脸微表情识别方法 |
CN118015686A (zh) * | 2024-04-10 | 2024-05-10 | 济南超级计算技术研究院 | 基于全模拟光子神经网络的情绪识别装置及方法 |
CN118314617A (zh) * | 2024-06-11 | 2024-07-09 | 东北大学 | 一种基于分块多尺度卷积神经网络的微表情识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110516571A (zh) * | 2019-08-16 | 2019-11-29 | 东南大学 | 基于光流注意力神经网络的跨库微表情识别方法及装置 |
AU2020102556A4 (en) * | 2020-10-01 | 2020-11-19 | Ci, Yuming Mr | Psychological state analysis method based on facial micro-expression |
CN112115796A (zh) * | 2020-08-21 | 2020-12-22 | 西北大学 | 一种基于注意力机制的三维卷积微表情识别算法 |
-
2021
- 2021-01-20 CN CN202110073665.5A patent/CN112766159A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110516571A (zh) * | 2019-08-16 | 2019-11-29 | 东南大学 | 基于光流注意力神经网络的跨库微表情识别方法及装置 |
CN112115796A (zh) * | 2020-08-21 | 2020-12-22 | 西北大学 | 一种基于注意力机制的三维卷积微表情识别算法 |
AU2020102556A4 (en) * | 2020-10-01 | 2020-11-19 | Ci, Yuming Mr | Psychological state analysis method based on facial micro-expression |
Non-Patent Citations (4)
Title |
---|
RIZWAN CHAUDHRY等: "Histograms of Oriented Optical Flow and Binet-Cauchy Kernels on Nonlinear Dynamical Systems for the Recognition of Human Actions", 《2009 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
梁正友 等: "一种用于微表情自动识别的三维卷积神经网络进化方法", 《计算机科学》 * |
苏育挺 等: "基于多运动特征融合的微表情识别算法", 《激光与光电子学进展》 * |
赵突: "基于视频的人脸微表情识别关键技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113361415A (zh) * | 2021-06-08 | 2021-09-07 | 浙江工商大学 | 一种基于众包的微表情数据集收集方法 |
CN113537008A (zh) * | 2021-07-02 | 2021-10-22 | 江南大学 | 基于自适应运动放大和卷积神经网络的微表情识别方法 |
CN113537008B (zh) * | 2021-07-02 | 2024-03-29 | 江南大学 | 基于自适应运动放大和卷积神经网络的微表情识别方法 |
CN113469153A (zh) * | 2021-09-03 | 2021-10-01 | 中国科学院自动化研究所 | 基于微表情、肢体动作和语音的多模态情感识别方法 |
CN113469153B (zh) * | 2021-09-03 | 2022-01-11 | 中国科学院自动化研究所 | 基于微表情、肢体动作和语音的多模态情感识别方法 |
CN113901895A (zh) * | 2021-09-18 | 2022-01-07 | 武汉未来幻影科技有限公司 | 一种车辆的开门动作识别方法、装置以及处理设备 |
CN113901895B (zh) * | 2021-09-18 | 2022-09-27 | 武汉未来幻影科技有限公司 | 一种车辆的开门动作识别方法、装置以及处理设备 |
CN113902774A (zh) * | 2021-10-08 | 2022-01-07 | 无锡锡商银行股份有限公司 | 一种稠密度光流特征在视频中的面部表情检测方法 |
CN113902774B (zh) * | 2021-10-08 | 2024-04-02 | 无锡锡商银行股份有限公司 | 一种稠密度光流特征在视频中的面部表情检测方法 |
CN114005157A (zh) * | 2021-10-15 | 2022-02-01 | 武汉烽火信息集成技术有限公司 | 一种基于卷积神经网络的像素位移向量的微表情识别方法 |
CN114005157B (zh) * | 2021-10-15 | 2024-05-10 | 武汉烽火信息集成技术有限公司 | 一种基于卷积神经网络的像素位移向量的微表情识别方法 |
CN113920571A (zh) * | 2021-11-06 | 2022-01-11 | 北京九州安华信息安全技术有限公司 | 基于多运动特征融合的微表情识别方法及装置 |
CN114333002A (zh) * | 2021-12-27 | 2022-04-12 | 南京邮电大学 | 基于图深度学习和人脸三维重建的微表情识别方法 |
CN114913461A (zh) * | 2022-05-19 | 2022-08-16 | 广东电网有限责任公司 | 情绪识别方法、装置、终端设备及计算机可读存储介质 |
CN115661850A (zh) * | 2022-12-29 | 2023-01-31 | 武汉大学 | 一种融合多特征的印章识别方法 |
CN116311472A (zh) * | 2023-04-07 | 2023-06-23 | 湖南工商大学 | 基于多层次图卷积网络的微表情识别方法及装置 |
CN116311472B (zh) * | 2023-04-07 | 2023-10-31 | 湖南工商大学 | 基于多层次图卷积网络的微表情识别方法及装置 |
CN116824280B (zh) * | 2023-08-30 | 2023-11-24 | 安徽爱学堂教育科技有限公司 | 基于微表情变化的心理预警方法 |
CN116825365B (zh) * | 2023-08-30 | 2023-11-28 | 安徽爱学堂教育科技有限公司 | 基于多角度微表情的心理健康分析方法 |
CN116825365A (zh) * | 2023-08-30 | 2023-09-29 | 安徽爱学堂教育科技有限公司 | 基于多角度微表情的心理健康分析方法 |
CN116824280A (zh) * | 2023-08-30 | 2023-09-29 | 安徽爱学堂教育科技有限公司 | 基于微表情变化的心理预警方法 |
CN117392727A (zh) * | 2023-11-02 | 2024-01-12 | 长春理工大学 | 一种基于对比学习及特征解耦的人脸微表情识别方法 |
CN117392727B (zh) * | 2023-11-02 | 2024-04-12 | 长春理工大学 | 一种基于对比学习及特征解耦的人脸微表情识别方法 |
CN118015686A (zh) * | 2024-04-10 | 2024-05-10 | 济南超级计算技术研究院 | 基于全模拟光子神经网络的情绪识别装置及方法 |
CN118314617A (zh) * | 2024-06-11 | 2024-07-09 | 东北大学 | 一种基于分块多尺度卷积神经网络的微表情识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112766159A (zh) | 一种基于多特征融合的跨数据库微表情识别方法 | |
Jain et al. | Extended deep neural network for facial emotion recognition | |
Mahmood et al. | WHITE STAG model: Wise human interaction tracking and estimation (WHITE) using spatio-temporal and angular-geometric (STAG) descriptors | |
CN110427867B (zh) | 基于残差注意力机制的面部表情识别方法及系统 | |
Happy et al. | Fuzzy histogram of optical flow orientations for micro-expression recognition | |
CN106960202B (zh) | 一种基于可见光与红外图像融合的笑脸识别方法 | |
Youssif et al. | Automatic facial expression recognition system based on geometric and appearance features | |
CN105574510A (zh) | 一种步态识别方法及装置 | |
CN110796101A (zh) | 一种嵌入式平台的人脸识别方法及系统 | |
Maruyama et al. | Word-level sign language recognition with multi-stream neural networks focusing on local regions | |
Paul et al. | Extraction of facial feature points using cumulative histogram | |
Assiri et al. | Face emotion recognition based on infrared thermal imagery by applying machine learning and parallelism | |
Littlewort et al. | Fully automatic coding of basic expressions from video | |
Mosayyebi et al. | Gender recognition in masked facial images using EfficientNet and transfer learning approach | |
Chen et al. | A multi-scale fusion convolutional neural network for face detection | |
CN114550270A (zh) | 一种基于双注意力机制的微表情识别方法 | |
Jindal et al. | Sign Language Detection using Convolutional Neural Network (CNN) | |
Tyagi et al. | Hybrid FAST-SIFT-CNN (HFSC) approach for vision-based Indian sign language recognition | |
Sajid et al. | Facial asymmetry-based feature extraction for different applications: a review complemented by new advances | |
Mohan | Object detection in images by components | |
Kumar et al. | Facial emotion recognition and detection using cnn | |
CN117636436A (zh) | 基于注意力机制的多人实时面部表情识别方法和系统 | |
Khubchandani et al. | Sign Language Recognition | |
Bhardwaj et al. | A review: facial expression detection with its techniques and application | |
Mahbub et al. | One-shot-learning gesture recognition using motion history based gesture silhouettes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210507 |