一种基于最小间隔损失函数的深度人脸识别方法

文档序号:33555045发布日期:2023-03-22 11:25阅读:34来源:国知局

1.本发明涉及人脸识别领域,具体而言,设计一种基于最小间隔损失函数的深度人脸识别方法。


背景技术:

2.近年来,深度神经网络的快速发展使得人脸识别取得了巨大的成功。在深度神经网络中可以使用不同的损失函数,从而产生不同的性能。最近提出了一些损失函数,这些损失函数提高了技术水平。但它们无法解决不平衡数据集中所存在的间隔偏好问题,即所谓的长尾分布。因此,提出一种基于最小间隔损失的深度人脸识别的方法仍然是非常有必要的。


技术实现要素:

3.本发明的目的在于克服现有技术中存在的上述问题,提供了一种基于最小间隔损失函数的深度人脸识别的方法,本发明结合了softmax损失函数、中心(center loss)损失函数和最小间隔(minimum margin loss)损失函数的优势,其中中心损失用于增强类内紧凑度,softmax损失和最小间隔损失用于改善类间分离度。实验结果表明,所提出的最小间隔损失使人脸识别的技术性能达到了新的高度,减少了间隔偏好带来的负面影响。
4.为实现上述目的,本发明采用的技术方案如下:
5.一种基于最小间隔损失函数的深度人脸识别方法,其特征在于,包括以下步骤:
6.s1、准备数据集,数据集中不包含可能与基准数据集重叠的人脸图像;
7.s2、利用tensorflow框架搭建基于inception-resnet-vl模型的网络模型;
8.s3、将数据集中的训练集的图片输入至网络模型中进行训练;
9.s4、将数据集中测试集的图片输入训练好的网络模型中,识别人脸图像
10.所述步骤s1中,所述的数据集为数据集vggface2,删除了所有可能与基准数据集重叠的人脸图像。由于vggface2中的标签噪声很低,所以没有进行数据清洗。
11.所述步骤s1中,应用mtcnn于所有的人脸图像进行基准点定位、人脸对齐和人脸检测。如果人脸检测在训练图像上失败,就直接丢弃它;如果在测试图像上失败,则使用所提供的基准点代替。所有的训练和测试图像都被裁剪为160*160rgb图像。对训练图像进行了随机的水平翻转,将原始测试图像和水平翻转的图像的特征串连起来作为最终的特征。
12.所述步骤s2中,设置批处理大小为90,嵌入大小为512,权值衰减为5e-4,全连接层保持概率为0.4,总迭代次数t为27.5万次,学习速率μ
t
初始为0.05,每10万次迭代除以10。
13.所述步骤s2中,总损失为l=ls+αlc+βlm,通过重用中心损失所更新的类中心位置,最小间隔损失根据指定的最小间隔过滤所有类中心对。对于那些距离小于阈值的类中心对,将相应的惩罚加到损失值中。其中α和β是调整中心损失和最小间隔损失影响的超参数,ls是sofftmax损失,lc是中心损失,lm是最小间隔损失。
14.所述步骤s2中,最小间隔损失的详细描述为其
中k为一个批次的类别号,ci和ci分别为第i和第j个类的类中心,m为指定的最小间隔。在每个训练批次中,类中心由中心损失更新,使用公式和计算并更新,其中γ是类中心的学习速率,t是迭代次数,δ(condition)是一个条件函数。满足条件时,δ(condition)=1,否则δ(condition)=0。
15.所述步骤s4中,在测试期间,设置能带来最高性能的参数。超参数α和β分别设为5e-5和5e-8,最小间隔损失函数的最小间隔m设置为280。每幅图像的深度特征来自全连接层的输出,将原始测试图像的特征与水平翻转的对应图像的特征连接起来,每幅图像的特征大小为2*512维。
16.本发明的有益效果包括:
17.本申请提出的基于最小间隔损失函数的深度人脸识别方法是第一个考虑在不同的类之间设置最小间隔损失函数的方法。所提出的损失函数在cnn中很容易实现,我们的cnn模型可以直接通过标准的sgd进行优化。广泛的实验在七个公开可用的数据集上进行。我们将基于最小间隔损失函数所训练出来的人脸识别模型与近年在顶级会议和期刊上发表的方法进行了比较。我们也直接在同一框架下比较了最小间隔函数和相关其它损失函数。结果表明,基于最小间隔损失函数的深度人脸识别方法具有最先进的性能。
具体实施方式
18.本发明公开了一种基于最小间隔损失函数的深度人脸识别方法,其包括以下步骤:
19.s1、准备数据集,数据集中不包含可能与基准数据集重叠的人脸图像。
20.在步骤中,所述的数据集为数据集vggface2,为了保证实验结果的可靠性和准确性,删除了所有可能与基准数据集重叠的人脸图像。由于vggface2中的标签噪声很低,所以没有进行数据清洗。最终的训练数据集包含8千个身份的305万幅人脸图像。
21.应用mtcnn于所有的人脸图像进行基准点定位、人脸对齐和人脸检测。如果人脸检测在训练图像上失败,就直接丢弃它;如果在测试图像上失败,则使用所提供的基准点代替。所有的训练和测试图像都被裁剪为160*160rgb图像。对训练图像进行了随机的水平翻转,将原始测试图像和水平翻转的图像的特征串连起来作为最终的特征。
22.s2、利用tensorflow框架搭建基于inception-resnet-v1模型的网络模型。
23.在步骤中,设置批处理大小为90,嵌入大小为512,权值衰减为5e-4,全连接层保持概率为0.4,总迭代次数t为27.5万次,学习速率μ
t
初始为0.05,每10万次迭代除以10。
24.设置总损失为l=ls+αlc+βlm,通过重用中心损失所更新的类中心位置,最小间隔损失根据指定的最小间隔过滤所有类中心对。对于那些距离小于阈值的类中心对,将相应的惩罚加到损失值中。其中α和β是调整中心损失和最小间隔损失影响的超参数,ls是softmax损失,lc是中心损失,lm是最小间隔损失。
25.最小间隔损失的详细描述为其中k为一个批次的类别号,ci和cj分别为第i和第j个类的类中心,m为指定的最小间隔。在每个训练批次中,类中心由中心损失更新,使用公式和计算并更新,其
中γ是类中心的学习速率,t是迭代次数,δ(condition)是一个条件函数。满足条件时,δ(condition)=1,否则δ(condition)=0。
26.s3、将数据集中的训练集的图片输入至网络模型中进行训练;
27.s4、将数据集中测试集的图片输入训练好的网络模型中,识别人脸图像。
28.在步骤中,设置能带来最高性能的参数,超参数α和β分别设为5e-5和5e-8,最小间隔损失函数的最小间隔m设置为280。每幅图像的深度特征来自全连接层的输出,将原始测试图像的特征与水平翻转的对应图像的特征连接起来,每幅图像的特征大小为2*512维。


技术特征:
1.一种基于最小间隔损失函数的深度人脸识别方法,其特征在于,包括以下步骤:s1、准备数据集,数据集中不包含与基准数据集重叠的人脸图像;s2、利用tensorflow框架搭建基于inception-resnet-v1模型的网络模型;s3、将数据集中的训练集的图片输入至网络模型中进行训练;s4、将数据集中测试集的图片输入训练好的网络模型中,识别人脸图像。2.根据权利要求1所述的基于最小间隔损失函数的深度人脸识别方法,其特征在于:所述步骤s1中,所述的数据集为数据集vggface2,删除了所有与基准数据集重叠的人脸图像;没有进行数据清洗。3.根据权利要求1所述的基于最小间隔损失函数的深度人脸识别方法,其特征在于:所述步骤s1中准备数据集具体包括:s1-1,应用mtcnn于所有的人脸图像进行基准点定位、人脸对齐和人脸检测;s1-2,如果人脸检测在训练图像上失败,就直接丢弃它;如果在测试图像上失败,则使用所提供的基准点代替;s1-3,所有的训练和测试图像都被裁剪为160*160rgb图像;s1-4,对训练图像进行随机的水平翻转,将原始测试图像和水平翻转的图像的特征串连起来作为最终的特征。4.根据权利要求1所述的基于最小间隔损失函数的深度人脸识别方法,其特征在于:所述步骤s2中,设置批处理大小为90,嵌入大小为512,权值衰减为5e-4,全连接层保持概率为0.4,总迭代次数t为27.5万次,学习速率μ
t
初始为0.05,每10万次迭代除以10。5.根据权利要求1所述的基于最小间隔损失函数的深度人脸识别方法,其特征在于:所述步骤s2中,总损失为l=l
s
+αl
c
+βl
m
,通过重用中心损失所更新的类中心位置,最小间隔损失根据指定的最小间隔过滤所有类中心对;对于那些距离小于阈值的类中心对,将相应的惩罚加到损失值中,其中α和β是调整中心损失和最小间隔损失影响的超参数,l
s
是softmax损失,l
c
是中心损失,l
m
是最小间隔损失。6.根据权利要求5所述的基于最小间隔损失函数的深度人脸识别方法,其特征在于:最小间隔损失的详细描述为其中k为一个批次的类别号,c
i
和c
j
分别为第i和第j个类的类中心,m为指定的最小间隔。7.根据权利要求5所述的基于最小间隔损失函数的深度人脸识别方法,其特征在于:在每个训练批次中,类中心由中心损失更新,使用公式和计算并更新,其中γ是类中心的学习速率,t是迭代次数,δ(condition)是一个条件函数;满足条件时,δ(condition)=1,否则δ(condition)=0。8.根据权利要求1所述的基于最小间隔损失函数的深度人脸识别方法,其特征在于:所述步骤s4中,超参数α和β分别设为5e-5和5e-8,最小间隔损失函数的最小间隔m设置为280;每幅图像的深度特征来自全连接层的输出,将原始测试图像的特征与水平翻转的对应图像的特征连接起来,每幅图像的特征大小为2*512维。

技术总结
本发明公开了一种基于最小间隔损失函数的深度人脸识别方法,包括以下步骤:S1、准备数据集,数据集中不包含可能与基准数据集重叠的人脸图像;S2、利用Tensorflow框架搭建基于Inception-ResNet-v1模型的网络模型;S3、将数据集中的训练集的图片输入至网络模型中进行训练;S4、将数据集中测试集的图片输入训练好的网络模型中,识别人脸图像。本发明结合了Softmax损失函数、中心(Center Loss)损失函数和最小间隔(Minimum Margin Loss)损失函数的优势,其中中心损失用于增强类内紧凑度,Softmax损失和最小间隔损失用于改善类间分离度。实验结果表明,所提出的最小间隔损失使人脸识别的技术性能达到了新的高度,减少了间隔偏好带来的负面影响。偏好带来的负面影响。


技术研发人员:魏欣 丁仁华 张远来 万欢 晏斐 徐健锋
受保护的技术使用者:南昌大学
技术研发日:2022.11.16
技术公布日:2023/3/21
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1