一种基于多特征融合的深度学习人脸识别方法

文档序号:10553327阅读:2500来源:国知局
一种基于多特征融合的深度学习人脸识别方法
【专利摘要】本发明公开了一种基于多特征融合的深度学习人脸识别方法,首先对待测试的orl人脸库进行二维gabor变换(2D gabor),提取出具有gabor特征的人脸库;由于图片的尺寸为:92×112,此处尺寸比较大,采用双线性插值的方法,将图像降为32×32的;然后将原始的orl人脸库与gabor特征的人脸库进行融合;最后用深度学习里面的栈式自编码的方式进行编码,并用softmax回归的方式求出权重参数,预测出识别准确率。本发明融合了多特征后,前提是该特征单独用此算法测试准确率不得低于80%,准确率会提高,而且算法会更加稳定,即随机初始化后,识别准确率基本保持不变。
【专利说明】
一种基于多特征融合的深度学习人脸识别方法
技术领域
[0001] 本发明属于图像识别和深度学习技术领域,涉及一种学习人脸识别方法,特别是 涉及一种基于多特征融合的深度学习人脸识别方法。
【背景技术】
[0002] 人脸识别是基于人的脸部特征信息进行身份认证的一种生物识别技术。通过摄像 机或摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,进而对检测 到的人脸进行匹配与识别。
[0003] 人脸识别的应用领域很广泛,尤其是在安防反恐、金融支付、门禁考勤、身份识别 等众多领域起着非常重要的作用,它所涉及的领域知识有生物医学、模式识别、图像处理、 机器学习等。
[0004] 人脸识别算法主要有:
[0005] ①模板匹配法:主要利用了人脸的纹理和灰度特征,采用最近邻分类器,将待识别 的图像与数据集中的所有模板进行匹配,进而找出最相似的模板。该方法主要存在的问题 是,如果数据集足够大,那么进行匹配的时候,时间消耗很大,而且准确率会有所降低。
[0006] ②主成分分析法(PCA):简而言之,就是将原始图像库的图像用一个低维的特征表 示出来,该特征一般要求能够代表整张图片的90%以上,可以很大程度上减少计算量。然而 该算法对外界环境较敏感,而且在识别过程中,初始特征量个数难以事先确定。
[0007] ③支持向量机(SVM):支持向量机是一种能力很强的分类器,一般情况下,采用此 分类器的算法准确率较高。当人脸样本数量较大时,该算法的时间复杂度和空间复杂度都 较高。
[0008]④线性判别式分析(LDA):其基本思想是将高维的模式样本投影到最佳判别矢量 空间,以达到抽取分类信息和压缩特征空间维数的效果,投影后保证模式样本在新的子空 间有最大的类间距离和最小的类内距离。过分强调类间距较大,忽视了类间距较小的特征, 最终会造成类间距较小的类别大量的重叠,导致最终的识别准确率不高。

【发明内容】

[0009] 为了解决上述技术问题,本发明公开了一种基于多特征融合的深度学习人脸识别 方法。
[0010] 本发明所采用的技术方案是:一种基于多特征融合的深度学习人脸识别方法,其 特征在于,包括以下步骤:
[0011] 步骤1:初始化权重衰减参数A、权重稀疏惩罚参数0、权重参数0、稀疏系数P、隐藏 层L1、隐藏层L2和分类数k;
[0012] 步骤2:原始图像特征提取;
[0013] 步骤3:分别将图像像素矩阵进行双线性插值变成MXM大小,并利用高斯金字塔将 图像像素降低N倍,变成g X f大小;
[0014] 步骤4:将每个对应的2张人脸串接在一起,组成一个大的人脸矩阵,并将该矩阵变 成一个L*1的向量,其中
[0015] 步骤5:训练第一个隐藏层的稀疏编码;
[0016] 步骤6:训练第二个隐藏层的稀疏编码;
[0017] 步骤7:训练softmax分类器;
[0018] 步骤8:利用栈式自编码算法构建一个包含两个隐藏层和一个最终softmax分类器 层的栈式自编码网络;
[0019] 步骤9:微调;
[0020] 步骤10:检验栈式自编码是否成功;
[0021] 若是,则通过微调求出来的权重系统0,对未知样本进行预测,并计算出准确率,流 程结束;
[0022]若否,则直接结束流程。
[0023]作为优选,初始化参数A = 3e-3、0 = 3,随机初始化权重系统0,初始化稀疏系数p = 0.3、隐藏层L1 = 200、隐藏层L2 = 200和分类数k = 40。
[0024]作为优选,步骤2中所述图像特征提取,包括对原始的0RL人脸库进行Gabor特征提 取和对原始的0RL人脸库进行LBP特征提取;
[0025]所述对原始的0RL人脸库进行Gabor特征提取,是利用2D Gabor基本函数分别对原 始的0RL人脸库进行特征提取,并组成一个Gabor的人脸库;
[0026] 所述2D Gabor基本函数定义为:
[0027] h(x*,y*,〇x,〇y)=g(x,,y' )exp[ j23i(u0x*+voy*)]
[0028] 其中: (.v ' = .y * cos( u1) + v * sin( vv)
[0029] { … ,
[y' = -r ^sin(iv) + v ^ cos{u')
[0031 ] 其中:uo表示在x*方向的频率,vo表示在y*方向的频率,w为正弦函数的方向角,心 和0>分别为高斯包络在x*和y*方向上的标准差,即高斯分布,这两个参数决定了高斯包络 的扩展空间,假设则把以上的2D Gabor基本函数写成如下的形式:
[0033]其中,螂=为正弦函数的空间频率,〇为空间常数;
[0034]所述对原始的0RL人脸库进行LBP特征提取,是利用LBP基本函数分别对原始的0RL 人脸库进行特征提取,并组成一个LBP的人脸库;
[0035] LBP基本函数定义为:
[0036]当某个局部二进制模式所对应的循环二进制从0到1或从1到0最多有两次跳变时 这个二进制序列首尾相连,该局部二进制模式所对应的二进制就称为一个等价模式类;检 验某种模式是否属于等价模式的方法是将其和其移动一位后的二进制模式按位相减的绝 对值求和,定义如下:
f:l e >〇
[0038] 其中:n
[0039] gc:表示的是局部区域的中心点的灰度值;gP(p = 0,1,--,P):表示对应于中心点 周围等距分布的P个点;若某种模式计算得到的U(GP)小于或等于2,则将其归于等价模式。
[0040] 作为优选,步骤3中M=128,N=32。
[0041 ] 作为优选,步骤4中Z = 200。
[0042] 作为优选,步骤7中所述训练softmax分类器,其具体实现包括以下子步骤:
[0043]步骤7.1:初始化参数A=le_4、分类数k = 40、随机初始化权重系统0 ;
[0044] 步骤7.2:判断梯度检验是否成功;
[0045] 若是,则继续执行下述步骤7.3;
[0046] 若否,则结束流程;
[0047]步骤7.3:加载人脸数据,并标签;
[0048]步骤7.4:计算损失函数;
[0049] 将已经有m个标记了的训练样本作为训练集,特征向量x的维度为n+1,即x(1)GRn +1,标记y(1)G {1,2,^_k},此处x(1)特征向量即为步骤4中L*1的向量,y(1)表示的是x (1)所对应 人脸的序号;最终训练集组成的集合为:KX(1),y (1)),(X(2),y(2)),一,(X (m),y(m))};
[0050] 对于 logistic 回归,假设函数(hypothesisfunction)如下:
[0052]其中,9为权重参数;则最小化代价函数:
[0054]在 softmax 中的假设函数(hypothesisfunction)如下:
[0056]其中权重参数0不再是列向量,而是一个矩阵,矩阵的每一行可以看做是一个类别 所对应分类器的参数,总共有k行;
[0057]矩阵能写成下面的形式: 一-矿, -0^ -
[0058] .0.二."2, ; L-达-」.
[0059]此时,系统损失函数的方程为:
[0061]其中,1{ ?}是一个指示性函数,即当大括号中的值为真时,该函数的结果就为1, 否则其结果就为〇;
[0062] Sof tmaxregre s s i on中损失函数的偏导函数如下所示:
[0064] 其中公式中的
是一个向量,表示的是针对第i个类别而求得的;^^,/(的表示 的是损失函数对第j个类别的第L个参数的偏导;
[0065] 加入规则项后的损失函数表达式如下:
[0067]则偏导函数表达式如下所示:
[0069] 步骤7.5:利用L-BFGS算法求得的0,该矩阵大小为k*(n+l),k为分类的类别数;
[0070] 步骤7.6:采用softmax分类器预测结果并计算出分类的准确率。
[0071] 作为优选,步骤8中所述栈式自编码神经网络是一个由多层稀疏自编码器组成的 神经网络,其前一层自编码器的输出作为其后一层自编码器的输入;其中输入的就是前述 步骤中提取的信息经过2次高斯金字塔缩小4倍后的图像,然后reshape成一维的向量;所述 前述步骤中提取的信息包括原始图像、Gabor特征、LBP特征、原始图像&Gabor特征、原始图 像&LBP特征、Gabor特征&LBP特征、原始图像&Gabor特征&LBP特征。
[0072] 作为优选,步骤9中所述微调,是对反向传播算法进行微调,其具体实现包括以下 子步骤:
[0073]步骤9.1:对L2,L3,…Lnl层使用前向传播中的公式计算各层的激活值;其中nl表示 的是网络层数;
[0074] 步骤9.2:对输出层m,令:浐=-(▽#/)*/'(:(n/));
[0075] 其中:anl:表示的是第nl层的激活值,即输出值;z(nl):表示的是第nl层输入加权 和,包括偏置单元;
:即选用的是sigmoid函数作为激活值;
[0076] 当使用softmax分类器时,softmax满足:VJ二# (/ -P),其中I为输入数据对应的 标签,P为条件概率向量;
[0077] 步骤9.3:对1 =m-x,m-2,m_3…,2,令5⑴=((W⑴)TS(1+1)) ? f,(z⑴);
[0078] 其中:f'(z):表示的是激活值函数的导数;
[0079]步骤9.4:计算所需要的偏导数;
[0080]损失函数J(w,b;x,y)对权重W⑴的偏导:▽_/(炒二#+1)(a wf ;
[0081 ]损失函数J(W,b;x,y)对偏置项b⑴的偏导:见f/+1 >;
[0082]步骤9.5:更新权重参数;
[0083] AWU) = AWU) + VfrlhJ(W,b;x,y);
[0084] M)U) =Ab(I) +Vbtl)J(W,b-,x,y);
[0087] 其中:a:学习因子。
[0088]本发明的优点:
[0089] (1)多特征融合技术能够比单一的准确率有所提高,最明显的就是原始orl库+ Gabor特征后的库,融合在一起后,由单个准确率为91.5 %和88 %提高到了95 %。提高了 3.5%的准确率;
[0090] (2)融合了多特征的算法比单一的特征对复杂的场景更具有适应性;
[0091] (3)通过该发明算法,求出来的权重参数,只要有未知样本,只需要通过矩阵相乘 的运算,然后求出每一列对应的最大值的序号,即为识别的人脸的序号,这很大程度上减少 了算法的运算。当训练样本足够大时,可运用于实际的实时人脸识别中。
【附图说明】
[0092]图1:本发明实施例的流程图;
[0093]图2:本发明实施例的Sof tmax算法流程;
[0094] 图3:本发明实施例的栈式自编码算法流程图。
【具体实施方式】
[0095] 为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发 明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不 用于限定本发明。
[0096] 请见图1,本发明提供的一种基于多特征融合的深度学习人脸识别方法,包括以下 步骤:
[0097] 步骤1:初始化权重衰减参数A = 3e-3、权重稀疏惩罚参数0 = 3,随机初始化权重参 数9,初始化稀疏系数P = 〇. 3、隐藏层L1 = 200、隐藏层L2 = 200和分类数k = 40。
[0098] 步骤2:图像特征提取,包括对原始的0RL人脸库进行Gabor特征提取和对原始的 0RL人脸库进行LBP特征提;
[0099] 【第一个特征】原始的0RL人脸库,这个库当然是最全面的库,没有进行任何特征提 取,从而保证了原始图像的完好特征。
[0100] 【第二个特征】Gabor小波与人类的视觉刺激响应很相似。由于也对于图像的边缘 敏感,提供了良好的方向特性和尺度特性,而且对于光照变化不敏感,又能提供对光照变化 良好的适应性。所以对原始的ORL人脸库进行Gabor特征提取。
[0101] Gabor特征提取:
[0102] 1946年,Dennis Gabor对傅立叶变换进行改进,提出了Gabor变换,该变换属于"窗 口"傅立叶变换,Gabor函数可以在频域不同尺度、不同方向上提取相关的特征。而且经研究 Gabor函数与人眼的生物作用相仿,是一种很好的特征提取算法,并取得了较好的效果。本 发明主要采用Gabor变换来进行人脸识别。
[0103] 2D Gabor基本函数定义为:
[0104] h(x,y,〇x,〇y)=g(x,,y' )exp[ j2Ji(u0x+voy)];
(.y' = acos(6))+ \;sin(6))
[0105] \ '" , (v' - - vsm(0) + j- cos(^)
[0106] 其中:uO表示在x*方向的频率,vO表示在y*方向的频率,w为正弦函数的方向角, %*和%*分别为高斯包络在x*和y*方向上的标准差,即高斯分布,这两个参数决定了高斯 包络的扩展空间,假设心=心,则把以上的2D Gabor基本函数写成如下的形式:
[0108]其中,% =^/%+vQ为正弦函数的空间频率,0为正弦函数的方向角,〇为空间常数。 [0109]利用2D Gabor小波分别对原始的0RL人脸库进行特征提取,并组成一个Gabor的人 脸库。
[0110] 【第三个特征】由于LBP主要用于纹理特征提取,它具有旋转不变性和灰度不变性 等显著的优点。所以对原始的0RL人脸库进行LBP特征提取。
[0111] LBP特征提取的简介:
[0112] Ojala等人通过研究发现,提出了采用一种等价模式对LBP算子进行降维。等价模 式(uniformpattern)的LBP算子定义:当某个局部二进制模式所对应的循环二进制从0到1 或从1到0最多有两次跳变时(这个二进制序列首尾相连),该局部二进制模式所对应的二进 制就称为一个等价模式类。比如:1 〇 1 〇 〇 〇 〇 〇的变化次数为3次所以不是一个 uniformpattern。为什么要提出这么个uniformLBP呢?因为研究者发现他们计算出来的大 部分值都在这58种之中,可达到90%以上,这样直方图从原来的256维变成59维,起到了降 维的作用。检验某种模式是否属于等价模式的简单方法是将其和其移动一位后的二进制模 式按位相减的绝对值求和,定义如下:
[0113] U(GP) = |5(g-p_, -g,)-5(g0 ~gj\ + X~Sc)~s(gP-t ~g,) 产1 fl £ - ^ 0
[0114] 其中:n
[0115] 若某种模式计算得到的U(GP)小于或等于2,则将其归于等价模式。
[0116] 利用LBP分别对原始的0RL人脸库进行特征提取,并组成一个LBP的人脸库。
[0117] 步骤3:分别将图像像素矩阵进行双线性插值变成128*128大小的矩阵,并利用高 斯金字塔将图像像素降低4倍,变成大小32*32大小的像素矩阵;
[0118]步骤4:将每个对应的2张人脸串接在一起,组成一个大的人脸矩阵,并将该矩阵变 成一个2048*1的向量,其中2048 = 32*32*2,乘以2是因为2张人脸;
[0119]步骤5:训练第一个隐藏层的稀疏编码;
[0120] 步骤6:训练第二个隐藏层的稀疏编码;
[0121] 步骤7:训练softmax分类器;
[0122] 请见图2,本实施例的训练softmax分类器,其具体实现包括以下子步骤:
[0123] 步骤7.1:初始化参数A = 1 e-4、分类数k = 40、随机初始化权重系统0 ;
[0124] 步骤7.2:判断梯度检验是否成功;
[0125] 若是,则继续执行下述步骤7.3;
[0126] 若否,则结束流程;
[0127] 步骤7.3:加载人脸数据,并标签;
[0128] 步骤7.4:计算损失函数;
[0129] 将已经有m个标记了的训练样本作为训练集,特征向量x的维度为n+1,即x(1)GRn +1,标记y(1)G {1,2,^_k},此处x(1)特征向量即为步骤4中L*1的向量,y(1)表示的是x (1)所对应 人脸的序号;最终训练集组成的集合为: 例对符号的约定如下:特征向量x的维度为n +1,其中x 〇 = 1对应截距项)
[0130] 对于 logistic 回归,假设函数(hypothesisfunction)如下:
[0132] 其中,0为权重参数;
[0133] 则最小化代价函数:
[0135]在 softmax 中的假设函数(hypothesisfunction)如下:
[0137] 其中的参数0不再是列向量,而是一个矩阵,矩阵的每一行可以看做是一个类别所 对应分类器的参数,总共有k行;
[0138] 矩阵能写成下面的形式: n -07 -
[0139] 0= ; L-巧-」
[0140] 此时,系统损失函数的方程为:
[0142] 其中,1{ ?}是一个指示性函数,即当大括号中的值为真时,该函数的结果就为1, 否则其结果就为〇;
[0143] Softmaxregression中损失函数的偏导函数如下所示:
[0145]注意公式中的
-是一个向量,表示的是针对第i个类别而求得的。所以上面的 公式还只是一个类别的偏导公式,我们需要求出所有类别的偏导公式表示的是损 失函数对第j个类别的第L个参数的偏导。
[0146] Softmax中对参数的最优化求解不只一个,每当求得一个优化参数时,如果将这个 参数的每一项都减掉同一个数,其得到的损失函数值也是一样的。这说明这个参数不是唯 一解。用数学公式证明过程如下所示:
[0148] hession矩阵如果没有加入规则项,就有可能不是可逆,因此加入规则项后的损失 函数表达式如下:
[0150]则偏导函数表达式如下所示:
[0152] 步骤7.5:利用L-BFGS算法求得的0,该矩阵大小为k*(n+l),k为分类的类别数;
[0153] 步骤7.6:采用softmax分类器预测结果并计算出分类的准确率。
[0154] 步骤8:利用栈式自编码算法构建一个包含两个隐藏层和一个最终softmax分类器 层的栈式自编码网络;
[0155] 请见图3,利用栈式自编码算法中的栈式自编码神经网络是一个由多层稀疏自编 码器组成的神经网络,其前一层自编码器的输出作为其后一层自编码器的输入。依照这种 方法,最终构建一个包含两个隐藏层和一个最终softmax分类器层的栈式自编码网络;
[0156] 其中输入的就是我们在前面提取的(原始图像,Gabor特征,LBP特征,原始图像+ Gabor,原始图像+LBP,Gabor+LBP,原始图像+Gabor+LBP)经过2次高斯金字塔缩小4被后的 图像,然后reshape成一维的向量。
[0157] 步骤9:微调;
[0158] 微调可以大幅提升一个栈式自编码神经网络的性能,本实施例的微调,是对反向 传播算法进行微调,其具体实现包括以下子步骤:
[0159] 步骤9.1:对L2,L3,…Lnl层使用前向传播中的公式计算各层的激活值;其中nl表示 的是网络层数;
[0160] 步骤9 ? 2 :对输出层m,令:沪=-(▽,/) WB/>);
[0161] 其中:anl:表示的是第nl层的激活值,即输出值;z(nl):表示的是第nl层输入加权 和,包括偏置单元;
;即选用的是sigmoid函数作为激活值;
[0162] 当使用softmax分类器时,softmax满足:VJ = # (/-P),其中I为输入数据对应的 标签,P为条件概率向量;
[0163] 步骤9.3:对l=m-l,m-2,ni-3…,2,令S(1) = ((W(1))TS(1+1)) ? f'(z⑴);
[0164] 其中:f'(z):表示的是激活值函数的导数;
[0165] 步骤9.4:计算所需要的偏导数;
[0166] 损失函数 J(W,b;x,y)对权重 W ⑴的偏导:=
[0167] 损失函数J(W,b; x,y)对偏置项b(1 >的偏导:▽ v..,?/(WV);.r) = :
[0168]步骤9.5:更新权重参数;
[0169] ikx,y);
[0170] Ab(l) = Abu> + VblllJ(lV, b; .t, v);
[0173] 其中:a:学习因子。
[0174]步骤10:检验栈式自编码是否成功;
[0175] 若是,则通过微调求出来的权重系统0,对未知样本进行预测,并计算出准确率,流 程结束;
[0176] 若否,则直接结束流程。
[0177] 本实施例通过实验结果分析来进一步阐述本发明的优点,
[0178] 本实施例的实验平台:Windows7(64位),Matlab2014a;
[0179] 本实施例的实验结果:
[0181] 采用单一特征识别采用多特征融合的方法
[0182] 由以上的实验结果可知道,如何进行特征选择是很重要的,由于LBP单独测试的准 确率很低,即对该场景的适应不好,所以在此实验数据中不必融合LBP,只采用原始0RL特征 +Gabor的特征进行融合。一般来说,只要融合的那个特征不很差(通过该算法独立测试的准 确率不低于85% ),那么对该算法均有贡献,即可以提高准确率。
[0183] 本发明主要在两方面有较大的提高:
[0184] 第一:计算时间上,虽然本发明在计算出权值时用的是栈式自编码网络求解的,计 算量十分大,运行需要一段时间,但最终可以计算出每个输入特征的权重出来,但是这部分 运行时间时可以不必计算到识别中去的,只需要计算一次即可。在识别的时候,只需要利用 这些权重,然后乘以输入的特征向量,很容易就能识别出未知样本。时间上,显然,该方法只 需要一个简单的矩阵相乘就能识别出来,时间上会快很多。
[0185] 第二:准确率上,即便是用同样的数据库,通过PCA、SVM、Gabor、LBP、LDA等计算出 来的识别率均达不到95 %。该方法融合了原始人脸库和Gabor特征后,可以达到95 %。如果 样本足够大,那么计算出的权重将更具有代表性,准确率会更高。也就是说,在大数据时代, 该算法更具有优势。
[0186] 应当理解的是,本说明书未详细阐述的部分均属于现有技术。
[0187] 应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本 发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权 利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发 明的请求保护范围应以所附权利要求为准。
【主权项】
1. 一种基于多特征融合的深度学习人脸识别方法,其特征在于,包括W下步骤: 步骤1:初始化权重衰减参数A、权重稀疏惩罚参数0、权重参数0、稀疏系数P、隐藏层LU 隐藏层L2和分类数k; 步骤2:原始图像特征提取; 步骤3:分别将图像像素矩阵进行双线性插值变成MXM大小,并利用高斯金字塔将图像 像素降低N倍,变成苦大小; 步骤4:将每个对应的2张人脸串接在一起,组成一个大的人脸矩阵,并将该矩阵变成一 个L*1的向量,其中L=^x^x2; 步骤5:训练第一个隐藏层的稀疏编码; 步骤6:训练第二个隐藏层的稀疏编码; 步骤7:训练SOftmax分类器; 步骤8:利用找式自编码算法构建一个包含两个隐藏层和一个最终SOf tmax分类器层的 找式自编码网络; 步骤9:微调; 步骤10:检验找式自编码是否成功; 若是,则通过微调求出来的权重系统0,对未知样本进行预测,并计算出准确率,流程结 束; 若否,则直接结束流程。2. 根据权利要求1中所述的基于多特征融合的深度学习人脸识别方法,其特征在于:初 始化参数^ = 3e-3、0二3,随机初始化权重系统0,初始化稀疏系数P = 0.3、隐藏层Ll = 200、 隐藏层L2 = 200和分类数k = 40。3. 根据权利要求1中所述的基于多特征融合的深度学习人脸识别方法,其特征在于:步 骤2中所述图像特征提取,包括对原始的ORL人脸库进行Gabor特征提取和对原始的ORL人脸 库进行LBP特征提取; 所述对原始的0化人脸库进行Gabor特征提取,是利用2D Gabor基本函数分别对原始的 0化人脸库进行特征提取,并组成一个Gabor的人脸库; 所述2D Gabor基本函数定义为: h(x*,y*,〇x,〇y)=g(x' ,y' )exp[ j23i(u〇x*+voy*)] 其中:其中:u质示在巧方向的频率,V质示在y*方向的频率,W为正弦函数的方向角,叹*和^* 分别为高斯包络在X*和y*方向上的标准差,即高斯分布,运两个参数决定了高斯包络的扩 展空间,假设馬* = Cy* = C,则把W上的2D Gabor基本函数写成如下的形式: 其中所述对原始的ORL人脸库进行LBP特征提取,是利用LBP基本函数分别对原始的ORL人脸 库进行特征提取,并组成一个LBP的人脸库; LBP基本函数定义为: 当某个局部二进制模式所对应的循环二进制从0到1或从1到0最多有两次跳变时运个 二进制序列首尾相连,该局部二进制模式所对应的二进制就称为一个等价模式类;检验某 种模式是否属于等价模式的方法是将其和其移动一位后的二进制模式按位相减的绝对值 求和,定义如下: 其gc:表示的是局部区域的中屯、点的灰度值;gp(p = 0,1,--,P):表示对应于中屯、点周围 等距分布的P个点;若某种模式计算得到的U(Gp)小于或等于2,则将其归于等价模式。4. 根据权利要求1中所述的基于多特征融合的深度学习人脸识别方法,其特征在于:步 骤3 中 M=128,N=32。5. 根据权利要求1中所述的基于多特征融合的深度学习人脸识别方法,其特征在于:步 骤4 中 Z = 200。6. 根据权利要求1中所述的基于多特征融合的深度学习人脸识别方法,其特征在于,步 骤7中所述训练SOftmax分类器,其具体实现包括W下子步骤: 步骤7.1:初始化参数A = le-4、分类数k = 40、随机初始化权重系统0; 步骤7.2:判断梯度检验是否成功; 若是,则继续执行下述步骤7.3; 若否,则结束流程; 步骤7.3:加载人脸数据,并标签; 步骤7.4:计算损失函数; 将已经有m个标记了的训练样本作为训练集,特征向量X的维度为n+1,即ERD",标 记yW E {1,2,,此处XW特征向量即为步骤4中L*1的向量,yW表示的是XW所对应人脸 的序号;最终训练集组成的集合为:{(xW,yW),(xW,yW),,,,,(x?,yW)}; 对于logistic回归,假设函数化ypothesisfunction)如下:在softmax中的假设四多:iUnypotnesistunction;观 h : 其中,0为其中权重参数0不再是列向量,而是一个矩阵,矩阵的每一行可W看做是一个类别所对 应分类器的参数,总共有k行; 矩阵能写成下面的形式: 此时,系统损失函:其中,1{ ?}是一个指示性函数,即当大括号中的值为真时,该函数的结果就为1,否则 其结果就为O; Softmaxregression中损失函数的偏导函数如下所示:a/(6?) 其中公式中的是一个向量,表示的是针对第i个类别而求得的; 表示的是损失函数对第j个类别的第L个参数的偏导; 加入规则项后的损失函数表达式如下: 则偏导国步骤7.5:利用kWGS算法求得的目,该矩阵大小为k*(n+l),k为分类的类别数; 步骤7.6:采用SOftmax分类器预测结果并计算出分类的准确率。7.根据权利要求1中所述的基于多特征融合的深度学习人脸识别方法,其特征在于:步 骤8中所述找式自编码神经网络是一个由多层稀疏自编码器组成的神经网络,其前一层自 编码器的输出作为其后一层自编码器的输入;其中输入的就是前述步骤中提取的信息经过 2次高斯金字塔缩小4倍后的图像,然后reshape成一维的向量;所述前述步骤中提取的信息 包括原始图像、Gabor特征、LBP特征、原始图像&Gabor特征、原始图像&LBP特征、Gabor特征& LBP特征、原始图像&Gabor特征&LBP特征。8.根据权利要求1中所述的基于多特征融合的深度学习人脸识别方法,其特征在于:步 骤9中所述微调,是对反向传播算法进行微调,其具体实现包括W下子步骤:步骤9.1:对L2,L3,…Lni层使用前向传播中的公式计算各层的激活值;其中nl表示的是 网络层数; 步骤9.2:对输出层ni,令 其中:曰"1:表示的是第nl层的激活值,即输出值;表示的是第nl层输入加权和,包 括偏置单元:即选用的是sigmoid函数作为激活值; 当使用SOftmax分类器时,SOftmax满足其中I为输入数据对应的标签, P为条件概率向量; 步骤9.3:对l=m-l,m-2,m-3…,2,令S(I) = ((W(I))Ts(W)) ? f'(z。)); 其中:f'(Z):表示的是激活值函数的导数;步骤9.4:计算所需取的偏身掀. 损失函数J(W,b;x,5 损失函数J(W,b;x,5 步骤9.5:更新权重^ 其中:a为学习因子。
【文档编号】G06K9/00GK105913025SQ201610225164
【公开日】2016年8月31日
【申请日】2016年4月12日
【发明人】熊炜, 刘哲, 向梦, 吴俊驰, 刘小镜, 徐晶晶, 赵诗云
【申请人】湖北工业大学
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1