基于多特征融合的人脸表情自动识别方法与流程

文档序号:20187851发布日期:2020-03-27 19:19阅读:285来源:国知局
本发明的技术方案涉及识别图形的方法,具体地说是基于多特征融合的人脸表情自动识别方法。
背景技术
::人类的语言分为自然语言和形体语言两类,面部表情是形体语言的一部分。心理学家研究发现在人类进行会话交流时:语言内容占7%;说话时的语调占38%;而说话人的表情占55%。所以人脸表情在人类交往活动中起到了重要的作用。与之相对应的表情识别一直是模式识别与计算机视觉领域中十分活跃的热点。随着人工智能和模式识别的发展,人脸表情识别受到的关注日益提高,在人机交互中的地位越发重要。现今,国内外有很多团队对人脸表情识别进行研究,国内有清华大学、中国科技大学和中科院自动化研究所等,国外有麻省理工学院(mit)、东京大学、卡耐基梅隆大学(cmu)机器人研究所和日本国际电信技术研究所(atr)等。人脸表情识别的过程主要包括:图像预处理、特征提取和分类识别,其中特征提取是人脸表情分类的难点与重点。常用特征提取方法分为基于统计特征提取方法和基于频域特征提取方法。基于统计特征提取方法有:线性判别分析方法、主成分分析方法和独立成分分析方法;基于频域特征提取方法有:gabor特征方法和局部二值模式(以下简称lbp)方法,其中gabor特征方法可有效提取多尺度多方向人脸表情特征,且其对光照变化和噪声鲁棒性较强,缺点是计算量较大;lbp方法能描述图像局部信息,且具有灰度不变性优点,但仍然存在不足之处:(1)lbp方法过于依赖中心像素点的阈值作用,忽略周围邻近像素点间关系,从而使得lbp对于噪声和光照的鲁棒性有待加强;(2)局部信息和整体信息的平衡性有待加强,在统计lbp特征直方图时,若对图像分块过少,则会忽略局部信息,若对图像分块过多,则忽略整体信息。针对lbp方法的不足,liao等在“dominantlocalbinarypatternsfortextureclassification”一文中提出了显性二值局部模式(简称dlbp)方法,该方法对于图像的旋转以及噪声、光照有良好的适应性,但数据维度较大,计算复杂度高,不能很好地兼顾局部信息和整体信息关系。cn103971095a公开了一种基于多尺度lbp和稀疏编码的大规模人脸表情识别方法,该方法首先建立人脸表情数据库,使用随机抽样技术生成训练数据库与测试数据库,之后使用多尺度的lbp特征表示人脸表情特征,进而生成稀疏编码方法所需要的字典,通过对新的人脸表情样本求解最优稀疏系数,并累加不同人脸表情的稀疏系数来识别人脸表情样本。但该方法并没有解决lbp过于依赖中心像素点的阈值作用,忽略周围邻近像素点间关系和局部信息、整体信息的平衡性有待加强的不足,识别率不高。cn105005765a公开了一种基于gabor小波和灰度共生矩阵的人脸表情识别方法,该方法首先通过手工分割的方法提取出表情图像中的“纯脸”区域,并进行预处理;然后通过分块提取gabor特征统计量,并融合灰度共生矩阵进行表情识别,该方法不能克服光照以及噪声的影响,且没有充分利用面部重要区域纹理信息。总之,现有的人脸表情识别方法普遍存在对光照和噪声的鲁棒性差,没有考虑局部信息与整体信息的充分利用因而识别率低下的缺陷。技术实现要素:本发明所要解决的技术问题是:提供基于多特征融合的人脸表情自动识别方法,是一种融合人脸表情图像和人脸表情重要区域图像的gabor特征以及多尺度acilbp特征直方图的方法,克服了现有的人脸表情识别方法普遍存在对光照和噪声的鲁棒性差,没有考虑局部信息与整体信息的充分利用因而识别率低下的缺陷。上述acilbp是aroundcenterinstablelocalbinarypattern的缩写,中文含义是中心稳定局部二值模式。本发明解决该技术问题所采用的技术方案是:基于多特征融合的人脸表情自动识别方法,是一种融合人脸表情图像和人脸表情重要区域图像的gabor特征以及多尺度acilbp特征直方图的方法,具体步骤如下:第一步,人脸表情图像及人脸表情重要区域图像预处理:(1.1)人脸表情图像几何归一化:通过usb接口输入人脸的rgb图像到计算机中,利用公式(1)将其转换为灰度图像o,o(x,y)=0.299×r(x,y)+0.587×g(x,y)+0.114×b(x,y)(1),其中r、g和b分别为红色、绿色和蓝色三个通道,(x,y)是图像的像素点坐标,对得到的灰度图像o采用dmf_meanshift算法进行人脸关键点检测,定位眼睛、鼻子和嘴巴的中心点,并根据面部特征点和几何模型裁剪出人脸表情图像i,将人脸表情图像i几何归一化到m×m’个像素,并将该人脸的双眼矩形区域归一化为u×u’个像素,该人脸的鼻子归一化为v×v’个像素,该人脸的嘴部归一化为w×w’个像素,双眼、鼻子和嘴这三部分构成该人脸表情重要区域图像f,由此完成人脸表情图像几何归一化;(1.2)人脸表情图像直方图的均衡化和人脸表情重要区域图像直方图的均衡化:计算上述(1.1)步人脸表情图像i的直方图,然后根据直方图计算累计分布函数,对人脸表情图像i的概率密度函数做映射变换,得到直方图均衡化的人脸表情图像i’,即完成对人脸表情图像直方图的均衡化;计算上述(1.1)步人脸表情重要区域图像f的直方图,然后根据直方图计算累计分布函数,对人脸表情重要区域图像f的概率密度函数做映射变换,得到直方图均衡化的人脸表情重要区域图像f’,即完成对人脸表情重要区域图像直方图的均衡化;(1.3)直方图均衡化的人脸表情图像的归一化和直方图均衡化的人脸表情重要区域图像灰度的归一化:对上述(1.2)步直方图均衡化的人脸表情图像i’进行灰度归一化,利用公式(2)将直方图均衡化的人脸表情图像i’转换为灰度归一化的人脸表情图像j,j(x,y)=i'(x,y)/i'av*i(x,y)(2),式(2)中,i’av是灰度归一化的人脸表情图像j的像素平均值;对上述(1.2)步直方图均衡化的人脸表情重要区域图像f’进行灰度归一化,利用公式(3)将直方图均衡化的人脸表情重要区域图像f’转换为灰度归一化的人脸表情重要区域图像k,k(x,y)=f'(x,y)/f'av*f(x,y)(3),式(3)中,f′av是灰度归一化的人脸表情重要区域图像k的像素平均值;至此完成预处理,得到预处理后的人脸表情图像j及人脸表情重要区域图像k,以下简称为人脸表情图像j及人脸表情重要区域图像k;第二步,对人脸表情图像和人脸表情重要区域图像分别提取gabor特征,并赋予不同权值,融合得到两层人脸表情图像的gabor特征:将上述第一步得到的人脸表情重要区域图像k作为第一层人脸表情图像,将人脸表情图像j作为第二层人脸表情图像,分别提取gabor特征,选用5尺度8方向的gabor滤波器,所用的gabor滤波器的表达形式如下:其中(x0,y0)为gabor滤波后的坐标,x0=xcosθ+ysinθ,y0=-xsinθ+ycosθ,θ是gabor滤波器的方向,ω0是中心频率,σ为沿x轴和y轴方向的标准偏差,σ=π/ω0,其中,ω0分别为对应于每一个ω0,θ相应取值0、π/8、π/4、3π/8、π/2、5π/8、3π/4、7π/8;提取出的人脸表情重要区域图像k的gabor特征矩阵记为gb1,提取出的人脸表情图像j的gabor特征矩阵记为gb2,gb1和gb2分别乘以不同权重w1和w2得到总的gabor特征矩阵记为gt,w1和w2是经验值,具体公式如下,gt=[w1gb1w2gb2](4),由此融合人脸表情图像的gabor特征和人脸表情重要区域图像的gabor特征,得到两层人脸表情图像的gabor特征;第三步,利用acilbp算子提取多尺度acilbp特征直方图:对上述第一步得到的人脸表情图像j利用acilbp算子提取多尺度acilbp特征直方图,过程是:首先,对第一步得到的人脸表情图像j细化为n个尺度,即在第m个尺度将人脸表情图像划分为lm×lm个子区域,m=1,…,n,其次,在人脸表情图像j的每一个尺度的每个子区域上统计acilbp特征直方图的分布序列,将每一尺度的每个子区域acilbp特征直方图串联作为当前尺度的acilbp特征直方图,最后串联n个尺度的acilbp特征直方图作为n尺度的acilbp特征直方图;由此完成对上述第一步得到的人脸表情图像j利用acilbp算子提取多尺度acilbp特征直方图;第四步,特征融合得到人脸表情特征数据:将上述第二步融合得到两层人脸表情图像的gabor特征矩阵gt与第三步提取的多尺度acilbp特征直方图进行串联融合,得到人脸表情特征数据;第五步,采用svm分类器进行人脸表情的训练和预测,实现人脸表情自动识别:将上述第一步中输入的全部人脸的rgb图像,取其中一半作为训练集,另一半作为测试集,分别经过上述第一步到第四步的处理后,得到训练集的人脸表情特征数据和测试集的人脸表情数据,将训练集的人脸表情特征数据输入到svm分类器中进行人脸表情的训练得到支持向量,再将待测试人脸表情图像的人脸表情特征数据和上述得到的支持向量送入到svm支持矢量机的svmpredict函数中进行预测,svm分类器采用自定义核函数,利用交叉验证选择最佳参数c与g,拉格朗日因子c=820,g=2.8,由此实现人脸表情自动识别。上述基于多特征融合的人脸表情自动识别方法,所述人脸表情图像i几何归一化到m×m’个像素,并将该人脸的双眼矩形区域归一化为u×u’个像素,该人脸的鼻子归一化为v×v’个像素,该人脸的嘴部归一化为w×w’个像素,双眼、鼻子和嘴这三部分构成该人脸表情重要区域图像f,其中m=76,m'=93,u=70,u'=21,v=30,v'=35,w=56,w'=30。上述基于多特征融合的人脸表情自动识别方法,所述acilbp算子是在lbp算子的基础上,增加了邻域的像素差值的影响,acilbp算子采用“0”和“1”表示两种稳定状态,z表示待定状态,z的状态根据中心像素点与周围像素点之间关系以及相邻周围像素点之间关系而定,lbp邻域的左上角设置为g0,由顺时针方向,根据采样半径r以及周围像素点个数p依次命名周围像素点为g0,g1,g2,…,gp-1,acilbp算子的具体计算方法如下:步骤1,根据公式(5)计算出p位二进制lbp值,其中上述式(5)中,(xc,yc)为中心像素的坐标,gc为中心像素的像素值,gi为其周围像素值;步骤2,根据公式(7)计算以(xc,yc)为中心像素的p位相邻周围像素关系二进制值,其中且当i=0时,gi-1的值为gp-1的值;步骤3,比较以(xc,yc)为中心像素的p位二进制lbp值与p位相邻周围像素关系二进制值zlbp值,若lbp值与zlbp值对应位置的数值相等,则acilbp对应位置取该值,若不相等,则计算lbp值中对应位置周围像素点与中心像素点差值的绝对值,并同时计算zlbp值中对应位置周围像素点与前一位置周围像素点差值的绝对值,取二者中绝对值大的对应位置二进制值作为acilbp对应位置二进制值,如公式(9),其中,上述式(10)中,当i=0时,gi-1的值为gp-1的值。上述基于多特征融合的人脸表情自动识别方法,所述直方图均衡化、灰度归一化、gabor滤波器、dmf_meanshift算法、dct、lbp、和svm分类器都是本领域公知的。本发明的有益效果是:与现有技术相比,本发明的突出的实质性的特点和显著进步如下:(1)本发明方法在预处理后的人脸表情图像及人脸表情重要区域图像上分别提取gabor特征,并对提取出的两个特征矩阵分配不同的权值进行融合,兼顾人脸表情整体图像与反映表情变化的重要区域图像特征,提高了人脸表情识别率。(2)本发明方法在lbp算子基础上改进得到acilbp算子,并对人脸表情图像进行多尺度acilbp特征直方图提取,克服了lbp算子对噪声、光照的敏感性,多尺度acilbp特征直方图能够有效提取图像的整体和细节的特征,提高了人脸表情自动识别的准确性,使得人脸表情自动识别进入可应用的领域。(3)本发明方法融合了人脸表情图像和人脸表情重要区域图像的gabor特征以及多尺度acilbp特征直方图,克服了现有的人脸表情识别方法普遍存在对光照和噪声的鲁棒性差,没有考虑局部信息与整体信息的充分利用因而识别率低下的缺陷。附图说明下面结合附图和实施例对本发明进一步说明。图1为本发明方法的流程图。图2为本发明方法预处理部分中的面部特征点和几何模型。图3为本发明方法中按人脸表情图像及人脸表情重要区域图像分层提取gabor特征的示意图。图4为本发明人方法中acilbp算子的计算过程的示意图。图5为本发明方法中使用acilbp算子提取多尺度acilbp特征直方图过程的示意图。具体实施方式图1所示实施例表明,本发明方法的流程是:人脸表情图像及人脸表情重要区域图像预处理→对人脸表情图像和人脸表情重要区域图像分别提取gabor特征,并赋予不同权值,融合得到两层人脸表情图像的gabor特征;利用acilbp算子提取多尺度acilbp特征直方图→特征融合得到人脸表情特征数据→采用svm分类器进行人脸表情的训练和预测,实现人脸表情自动识别。图2所示实施例显示本发明方法预处理部分中,对得到的灰度图像o采用dmf_meanshift算法进行人脸关键点检测,定位眼睛、鼻子和嘴巴的中心点,并根据面部特征点和几何模型剪裁得到裁剪后人脸表情图像,图中的cl和cr是两眼中心位置,两者间距为d,o点是cl与cr的中点,矩形高为2.2d,宽为1.8d,o点固定于(0.6d,0.9d)处。图3所示实施例表明,本发明方法中按人脸表情图像及人脸表情重要区域图像分层提取gabor特征的过程是:表情变化时反应较为明显的眼睛、鼻子、嘴三部分矩形区域这些灰度归一化的人脸表情重要区域图像k作为第一层人脸表情图像,将灰度归一化的裁剪后的人脸表情图像j作为第二层人脸表情图像,对两层图像分别提取gabor特征并融合,得到两层人脸表情图像的gabor特征。图4所示实施例表明,本发明人方法中acilbp算子的计算过程是:首先计算lbp值,由于86-90<0,85-90<0,65-90<0,86-90<0,94-90>0,96-90>0,95-90>0,90-90≥0,故lbp值为00001111。其次,计算zlbp值,由于86-90<0,85-86<0,65-85<0,86-65>0,94-85>0,96-94>0,95-96<0,90-95<0,故zlbp值为00011100。比较lbp值00001111与zlbp值00011100对应位置数字是否相等,相等则取相等值,不等则记为待定位xi,得到待定位编码000x111x2x3,由于|86-65|>|86-90|,|95-96|<|95-90|,|90-95|>|90-90|,故x1=1,x2=1,x3=0,最终acilbp编码为00011110。图5所示实施例表明,本发明方法中使用acilbp算子提取多尺度acilbp特征直方图过程是:将人脸表情图像细化为两个尺度,将其中的第一个尺度分为3×3个子区域,共9个子区域,在每个子区域上统计acilbp算子特征直方图,之后串联融合这9个子区域特征直方图。其次,将其中的第二个尺度分为2×2个子区域,共4个子区域,在每个子区域上统计acilbp算子特征直方图,之后串联融合这4个子区域特征直方图。最后,将第一个尺度串联融合后的9个子区域特征直方图和第二个尺度串联融合后的4个子区域特征直方图串联融合得到多尺度acilbp特征直方图。实施例1本实施例的基于多特征融合的人脸表情自动识别方法,是一种融合人脸表情图像和人脸表情重要区域图像的gabor特征以及多尺度acilbp特征直方图的方法,具体步骤如下:第一步,人脸表情图像及人脸表情重要区域图像预处理:(1.1)人脸表情图像几何归一化:通过usb接口输入人脸的rgb图像到计算机中,利用公式(1)将其转换为灰度图像o,o(x,y)=0.299×r(x,y)+0.587×g(x,y)+0.114×b(x,y)(1),其中r、g和b分别为红色、绿色和蓝色三个通道,(x,y)是图像的像素点坐标,对得到的灰度图像o采用dmf_meanshift算法进行人脸关键点检测,定位眼睛、鼻子和嘴巴的中心点,并根据面部特征点和几何模型裁剪出人脸表情图像i,将人脸表情图像i几何归一化到m×m’个像素,并将该人脸的双眼矩形区域归一化为u×u’个像素,该人脸的鼻子归一化为v×v’个像素,该人脸的嘴部归一化为w×w’个像素,双眼、鼻子和嘴这三部分构成该人脸表情重要区域图像f,由此完成人脸表情图像几何归一化,其中m=76,m'=93,u=70,u'=21,v=30,v'=35,w=56,w'=30;(1.2)人脸表情图像直方图的均衡化和人脸表情重要区域图像直方图的均衡化:计算上述(1.1)步人脸表情图像i的直方图,然后根据直方图计算累计分布函数,对人脸表情图像i的概率密度函数做映射变换,得到直方图均衡化的人脸表情图像i’,即完成对人脸表情图像直方图的均衡化;计算上述(1.1)步人脸表情重要区域图像f的直方图,然后根据直方图计算累计分布函数,对人脸表情重要区域图像f的概率密度函数做映射变换,得到直方图均衡化的人脸表情重要区域图像f’,即完成对人脸表情重要区域图像直方图的均衡化;(1.3)直方图均衡化的人脸表情图像的归一化和直方图均衡化的人脸表情重要区域图像灰度的归一化:对上述(1.2)步直方图均衡化的人脸表情图像i’进行灰度归一化,利用公式(2)将直方图均衡化的人脸表情图像i’转换为灰度归一化的人脸表情图像j,j(x,y)=i'(x,y)/i'av*i(x,y)(2),式(2)中,i’av是灰度归一化的人脸表情图像j的像素平均值;对上述(1.2)步直方图均衡化的人脸表情重要区域图像f’进行灰度归一化,利用公式(3)将直方图均衡化的人脸表情重要区域图像f’转换为灰度归一化的人脸表情重要区域图像k,k(x,y)=f'(x,y)/f'av*f(x,y)(3),式(3)中,f′av是灰度归一化的人脸表情重要区域图像k的像素平均值;至此完成预处理,得到预处理后的人脸表情图像j及人脸表情重要区域图像k,以下简称为人脸表情图像j及人脸表情重要区域图像k;第二步,对人脸表情图像和人脸表情重要区域图像分层分别提取gabor特征,并赋予不同权值,融合得到两层人脸表情图像的gabor特征:将上述第一步得到的人脸表情重要区域图像k作为第一层人脸表情图像,将人脸表情图像j作为第二层人脸表情图像,分别提取gabor特征,选用5尺度8方向的gabor滤波器,所用的gabor滤波器的表达形式如下:其中(x0,y0)为gabor滤波后的坐标,x0=xcosθ+ysinθ,y0=-xsinθ+ycosθ,θ是gabor滤波器的方向,ω0是中心频率,σ为沿x轴和y轴方向的标准偏差,σ=π/ω0,其中,ω0分别为对应于每一个ω0,θ相应取值0、π/8、π/4、3π/8、π/2、5π/8、3π/4、7π/8;提取出的人脸表情重要区域图像k的gabor特征矩阵记为gb1,提取出的人脸表情图像j的gabor特征矩阵记为gb2,gb1和gb2分别乘以不同权重w1和w2得到总的gabor特征矩阵记为gt,w1和w2是经验值,具体公式如下,gt=[w1gb1w2gb2](4),由此融合人脸表情图像的gabor特征和人脸表情重要区域图像的gabor特征,得到两层人脸表情图像的gabor特征;第三步,利用acilbp算子提取多尺度acilbp特征直方图:对上述第一步得到的人脸表情图像j利用acilbp算子提取多尺度acilbp特征直方图,过程是:首先,对第一步得到的人脸表情图像j细化为n个尺度,即在第m个尺度将人脸表情图像划分为lm×lm个子区域,m=1,…,n,其次,在人脸表情图像j的每一个尺度的每个子区域上统计acilbp特征直方图的分布序列,将每一尺度的每个子区域acilbp特征直方图串联作为当前尺度的acilbp特征直方图,最后串联n个尺度的acilbp特征直方图作为n尺度的acilbp特征直方图;本实施例对第一步得到的人脸表情图像j细化为2个尺度,在第1个尺度将人脸表情图像划分为l1×l1个子区域,l1=4,经过acilbp算子提取后得到特征直方图在第2个尺度将人脸表情图像划分为l2×l2个子块,l2=6,经过acilbp算子提取后得到特征直方图最后串联h1和h2得到2尺度的acilbp特征直方图h=[h1,h2];由此完成对上述第一步得到的人脸表情图像j利用acilbp算子提取多尺度acilbp特征直方图;所述acilbp算子是在lbp算子的基础上,增加了邻域的像素差值的影响,acilbp算子采用“0”和“1”表示两种稳定状态,z表示待定状态,z的状态根据中心像素点与周围像素点之间关系以及相邻周围像素点之间关系而定,lbp邻域的左上角设置为g0,由顺时针方向,根据采样半径r以及周围像素点个数p依次命名周围像素点为g0,g1,g2,…,gp-1,acilbp算子的具体计算方法如下:步骤1,根据公式(5)计算出p位二进制lbp值,其中上述式(5)中,(xc,yc)为中心像素的坐标,gc为中心像素的像素值,gi为其周围像素值;步骤2,根据公式(7)计算以(xc,yc)为中心像素的p位相邻周围像素关系二进制值,其中且当i=0时,gi-1的值为gp-1的值;步骤3,比较以(xc,yc)为中心像素的p位二进制lbp值与p位相邻周围像素关系二进制值zlbp值,若lbp值与zlbp值对应位置的数值相等,则acilbp对应位置取该值,若不相等,则计算lbp值中对应位置周围像素点与中心像素点差值的绝对值,并同时计算zlbp值中对应位置周围像素点与前一位置周围像素点差值的绝对值,取二者中绝对值大的对应位置二进制值作为acilbp对应位置二进制值,如公式(9),其中,上述式(10)中,当i=0时,gi-1的值为gp-1的值。第四步,特征融合得到人脸表情特征数据:将上述第二步融合得到两层人脸表情图像的gabor特征矩阵gt与第三步提取的多尺度acilbp特征直方图进行串联融合,得到人脸表情特征数据;第五步,采用svm分类器进行人脸表情的训练和预测,实现人脸表情自动识别:将上述第一步中输入的全部人脸的rgb图像,取其中一半作为训练集,另一半作为测试集,分别经过上述第一步到第四步的处理后,得到训练集的人脸表情特征数据和测试集的人脸表情数据,将训练集的人脸表情特征数据输入到svm分类器中进行人脸表情的训练得到支持向量,再将待测试人脸表情图像的人脸表情特征数据和上述得到的支持向量送入到svm支持矢量机的svmpredict函数中进行预测,svm分类器采用自定义核函数,利用交叉验证选择最佳参数c与g,拉格朗日因子c=820,g=2.8,由此实现人脸表情自动识别。本实施例在ck数据库和jaffe数据库两个人脸表情数据库上进行了实验。其中jaffe数据库中包含了213幅日本女性表情图像,共有10个人,每个人有7种表情(中性脸、高兴、悲伤、惊奇、愤怒、厌恶、恐惧)的不同数量图像。ck数据库包含了不同国家不同地区参与者的人脸表情,百分之三为女性,百分之十五为非裔美国人,三分之二为亚裔或者拉丁美洲人,其中每种表情包含10张表情序列,选取数据库中315个表情,每个表情包含4张表情序列图像,共1260张图像。在windows7环境下的matlabr2014a平台上进行实验。本实施例的准确率分别为93.51%和97.37%。表1和表2列出了本实施例的实验的结果。表1.对人脸表情图像和人脸表情重要区域图像分别提取gabor特征,并赋予不同权值,融合得到两层人脸表情图像的gabor特征所得到的人脸表情识别率(%)表1表明,对人脸表情图像和人脸表情重要区域图像分别提取gabor特征,并赋予不同权值的情况下,融合得到两层人脸表情图像的gabor特征后进行分类识别,表中数据显示当w1=1,w2=1时,人脸表情自动识别效果最好。表2.利用acilbp算子提取多尺度acilbp特征直方图,将融合得到两层人脸表情图像的gabor特征t与多尺度acilbp特征直方图进行串联融合后进行分类识别,其中两尺度不同分块取值对的人脸表情识别率的影响(%)表2表明了在对人脸表情图像和人脸表情重要区域图像分别提取gabor特征,并赋予不同权值,并分配w1=1,w2=1的最优权值情况下,利用acilbp算子提取多尺度acilbp特征直方图,将融合得到两层人脸表情图像的gabor特征t与多尺度acilbp特征直方图进行串联融合后进行分类识别,其中多尺度在l1=4,l2=6情况下,人脸表情识别效果最好。实施例2为了验证本发明方法在人脸表情自动识别率上的优势,本实施例选取目前使用较为广泛的六种人脸表情识别方法与本发明的基于多特征融合的人脸表情自动识别方法进行对比,六种人脸表情识别方法分别为:正交局部二值模式(orthogonalcombinationoflocalbinarypatterns,oclbp)、对称局部图结构(symmetriclocalgraphstructure,slgs)、抗噪局部二值模式(noise-resistantlocalbinarypatterns,nrlbp)、强鲁棒性局部二值模式(completedrobustlocalbinarypattern,crlbp)、局部网格模式(localmeshpatterns,lmep)、联合局部二元模式(jointlocalbinarypatterns,jlbp)。利用svm分类器在jaffe和ck数据库上进行对比实验,其中训练样本的选择方式为随机选择,本实施例在jaffe数据库中选择其中的137张图像进行训练,76张用于测试,在ck数据库中238个表情的952张图像用于训练,77个表情的308张图像用于测试,保证了训练与测试样本不重复出现,且每种方法中相同参数保持一致,保证了各个方法之间的公平性,最终结果体现普遍性和正确性。上述六种人脸表情识别方法与本发明的基于多特征融合的人脸表情自动识别方法进行对比的结果见表3。表3.不同方法在两个数据库上的人脸表情识别率的比较(%)表3对比了本方法与目前常用人脸表情识别方法的对比情况,结果表明本发明方法在ck和jaffe数据库上均超过了其它表情识别方法的人脸表情识别率。上述实施例中,所述直方图均衡化、灰度归一化、gabor滤波器、dmf_meanshift算法、dct、lbp、和svm分类器都是本领域公知的。当前第1页1 2 3 当前第1页1 2 3 
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1