基于卷积神经网络的人脸识别方法、装置、系统及设备与流程

文档序号:11729775阅读:791来源:国知局
基于卷积神经网络的人脸识别方法、装置、系统及设备与流程

本发明涉及人脸图像识别领域,特别是涉及一种基于卷积神经网络的人脸识别方法、装置、系统及设备。



背景技术:

人脸识别是基于人的脸部特征信息进行身份识别的一种生物识别技术。用摄像机或摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,进而对检测到的人脸进行一系列相关操作的技术,通常也叫做人像识别。

人类基于人脸识别系统的研究始于20世纪60年代,80年代后随着计算机技术和光学成像技术的发展得到提高,而真正进入初级的应用阶段则在90年后期;人脸识别系统成功的关键在于是否拥有尖端的核心算法,并使识别结果具有实用化的识别率和识别速度;“人脸识别系统”集成了人工智能、机器识别、机器学习、模型理论、视频图像处理等多种专业技术,同时需结合中间值处理的理论与实践,是生物特征识别的最新应用。

目前,人脸识别的主要用法大致分为三个方向:

1vs1,主要用于快速的人脸识别比对,作为身份确认的一种新方式,比如考生身份确认、公司考勤确认、各种证件照和本人确认,由于这些照片源不一定有权威统一的接口调用,所以一直没有用起来。最可靠的是直接用手机摄像头跟调用身份证中心的人脸源照片比对。连接权威人脸库,可以解决很多问题,比如用户对传身份证照片的不信任,对手持照拍摄的抵触等,以及未来信息泄露的隐患担忧。

1vsn,这个主要用于公安部犯罪嫌疑人、失踪人口的全库搜寻、一人多证的重复排查,以此相似度列出相应的结果,可以大大提高排查效率。

nvsn,该算法实际上是基于视频流的帧处理所用,对服务器的计算环境要求严苛,目前的算系统所支撑的输出率非常有限,需要等待下一代gpu算法,特别是基于cuda架构的。该应用主要用在一些高级赛事会议场合,以及安保公司的人脸警报系统。

传统的人脸识别方法有多种,如主动形状模型(activeshapemodel,asm)和主动表观模型(activeappearancemodels,aam);基于局部的方法,如利用局部描述子gabor、局部二值模式(localbinarypattern,lbp)等进行识别;还有基于全局的方法,包括经典的人脸识别算法,如特征脸方法(eigenface)、线性判别分析法(lineardiscriminantanalysis,lda)等子空间学习算法以及局部保持投影算法(localitypreservingprojection,lpp)等流行学习算法;3d人脸识别也是一个新的方向。一般来说,人脸识别系统包括图像摄取、人脸定位、图像预处理以及人脸识别(身份确认或身份查找)。系统输入的一般是一张或者一系列含有未确定身份的人脸图像,以及人脸数据库中的若干已知身份的人脸图像或者相应的编码,而其输出则是一系列相似度得分,表明待识别的人脸的身份。

但是,传统的人脸识别技术主要是基于可见光图像的人脸识别,但这种方式有着难以克服的缺陷,尤其在环境光照发生变化时,特别是移动互联网时代,摄像头拍照的地方可以在斑驳的树影下,也可以在昏暗的街灯下,以及深夜出租车内,这对算法的鲁棒性考验极大,识别效果会急剧下降,无法满足实际系统的需要。除此之外,由于受人的姿态及表情变化、遮挡、海量数据等因素的影响,传统的人脸识别方法由于自身的局限性,其识别精度受到制约,已无法满足实际应用中的需求。

目前,经过不断的探索研究,基于机器视觉的人脸识别方法已经有效的解决了传统识别算法的面临的很多挑战,极大地提升识别精度。在深度学习框架下,学习算法直接从原始图像学习判别性的人脸特征,在海量人脸数据支撑下,基于深度学习的人脸识别在速度和精度方面已经远远超过人类。深度学习借助于图形处理器(gpu)组成的运算系统作大数据分析,人脸识别是图像处理及人工智能的一个重要指标,证明深度学习模型有助于推动人工智能发展,将来甚至可能超越人类的智能水平。

本专利综合考虑受到人面部表情、姿态、年龄、位置和遮盖物等因素引起的类内变化,以及来自外界光照、背景等身份不同引起的类间变化,这两种变化的分布是高度复杂且非线性的。传统的基于浅层学习的人脸识别方法,对于类内和类间这两种变化的复杂分布和非线性的人脸数据进行识别,往往达不到预期效果。深度学习是模拟人类视觉感知神经系统的认知学习,不断优化来学习输入图像到人脸关键特征的非线性映射关系,能够获得更具表征力的高层特征,可以用来解决人脸识别中的类内和类间的变化分布这一难题。因此,相比于传统技术方法,基于深度学习的人脸识别对光照变化、背景各异等挑战具有天然的鲁棒性,具有极大的优势。

面部特征点定位(人脸形状提取或人脸对齐)在人脸识别、表情识别、人脸动画合成等诸多任务中具有非常重要的作用。由于姿态、表情、光照和遮挡等因素的影响,在真实场景下的人脸对齐任务是非常困难的。主动形状模型(activeshapemodel,asm)和主动表观模型(activeappearancemodels,aam)是经典的人脸对齐方法。它们使用线性的主成分分析技术对人脸形状和纹理变化建模,并通过优化模型参数使之适配测试人脸图像。由于线性模型难以刻画复杂的人脸形状和纹理变化,在大姿态、夸张表情、剧烈光照变化和部分遮挡下的效果欠佳。该问题的解决方法是通过级联多个线性回归模型直接从人脸纹理特征预测人脸形状。在对人脸图像识别过程中,深度学习方法不仅能够提取有用的人脸纹理特征,而且能够得到精确的人脸形状和几何结构信息。

人脸识别技术在可控条件及半可控条件下已经基本趋于成熟,然而在非可控条件下,由于人脸容易受到姿态、表情、年龄和遮挡等因素的影响,识别率不高。其中,姿态变化会导致极大的面部表观变化,是对人脸识别影响最大的因素之一。姿态变化导致的人脸表观变化是一种复杂的非线性变化,利用3d模型生成虚拟图像的方式可以较好地解决不同姿态间的非线性变化问题,同时又可以在模型训练过程中增加数据量,提高数据多样性,进而提高系统自身的鲁棒性。研究表明,在有约束环境中利用深度学习的方法可以自动学习到人脸特征,与浅层方法相比,可使复杂的特征提取工作更加简单,并且可以学习到人脸图像中的一些隐性规律和规则。

在实际应用中,采集到的人脸图像有多种姿态变化,其图像分辨率偏低,也会造成人脸图像识别性能迅速下降。姿态变化将非线性因素引入人脸识别中,目标对象具有丰富含义。由于被监控的人群距离摄像头一般较远,导致被检测到的人脸区域较小,因此小尺寸和低质量的人脸图像识别性能下降,此种情况称为低分辨率人脸识别(low-resolutionfacerecognition,lrfr)。因为绝大多数的人脸识别算法在低分辨率人脸识别场合中的识别率不高,并且可供识别的人脸特征信息很少。而应用卷积神经网络对视频中的低分辨率人脸进行处理,可以得到较好的实验效果。图像超分辨率的实验表明,gan(generativeadversarialnetwork)可以逐渐迎合随之增加的网络层的低分辨率图像,并实现更好的视觉质量和数量性能。现阶段,基于深度学习的低分辨率人脸识别模型一般是将人脸识别的问题归结为感兴趣区域的划分和如何对感兴趣区域进行分类两个子问题,因此低分辨率人脸检测问题比分类问题难度更大,更加复杂,对构建模型的性能要求也更高。在这一领域的发展过程中,深度学习本身的结构得到了改进,更多的模型侧重于优化训练方法与流程。在低分辨率人脸识别的准确率不断提升的同时,运行时间也相应减少,从而使其能够更好地投入到实际应用中。

人脸检测是自动人脸识别系统中的一个关键环节,早期的人脸识别研究主要针对具有较强约束条件的人脸图象(如无背景的图象),往往假设人脸位置固定或者容易获得,因此人脸检测问题并未受到重视。

随着电子商务等应用的发展,人脸识别成为最有潜力的生物身份验证手段,这种应用背景要求自动人脸识别系统能够对一般图像具有一定的识别能力,由此所面临的一系列问题使得人脸检测开始作为一个独立的课题受到研究者的重视。今天,人脸检测的应用背景已经远远超出了人脸识别系统的范畴,在基于内容的检索、数字视频处理、视频检测等方面有着重要的应用价值。

人脸检测是一个复杂的具有挑战性的模式检测问题,其主要的难点有两方面,一方面是由于人脸内在的变化所引起:(1)人脸具有相当复杂的细节变化,不同的外貌如脸形、肤色等,不同的表情如眼、嘴的开与闭等;(2)人脸的遮挡,如眼镜、头发和头部饰物以及其他外部物体等。另外一方面由于外在条件变化所引起:(1)由于成像角度的不同造成人脸的多姿态,如平面内旋转、深度旋转以及上下旋转,其中深度旋转影响较大;(2)光照的影响,如图像中的亮度、对比度的变化和阴影等;(3)图像的成像条件,如摄像设备的焦距、成像距离,图像获得的途径等等。

这些困难都为解决人脸问题造成了难度,如果能找到一些相关的算法并能在应用过程中达到实时,将为成功构造出具有实际应用价值的人脸检测与跟踪系统提供保证。传统的技术基于lbp特征,haar特征等人工特征,训练出一系列级联分类器用以检测出图片中的人脸。传统的方法在使用中往往会碰到以下的问题:

1)对光照及成像条件极其敏感。在光线太明或太暗,图片稍微模糊一点的情况下,传统的方法就无法准确检测出人脸。

2)对人脸的遮挡极其敏感。在人流密集的区域,人脸遮挡无法避免,传统方法在这种场景下的应用非常局限。

3)计算局部特征的时间过长,无法进行实时的处理。

造成以上三点的主要原因有两个:

1)传统人工特征的信息量不足,泛化性差,计算过程中主要步骤串行化。

2)基于统计方法的分类器泛化性能较差,在复杂场景中不稳定。



技术实现要素:

本发明的目的在于克服现有技术的不足,提供一种基于卷积神经网络的人脸识别方法、装置、系统及设备,在传统cnn单层特征架构上增加多层cnn特征的组合以应对不同的成像条件,基于深度卷积神经网络算法,从海量图片数据集中训练出一个在监控环境下具有较强鲁棒性的人脸检测网络,降低误检率,提升检测响应速度。

本发明的目的是通过以下技术方案来实现的:基于卷积神经网络的人脸识别方法,包括以下步骤:

s1:人脸检测,采用多层cnn特征架构使人脸检测适应不同的成像条件及人脸尺度;

s2:关键点定位,采用深度学习中级联多个基准框回归网络来从给定的人脸图像中得到所需的人脸关键点位置;

s3:预处理,对输入图像进行预处理,获得固定大小的人脸图像;

s4:特征提取,将预处理后的固定大小的人脸图像经过特征提取模型得到特征代表向量;

s5:特征比对,先计算特征间的距离,根据阈值判定相似性或根据距离排序给出人脸识别结果。

所述的人脸检测步骤包括以下子步骤:

s101:图片从输入层进入网络;

s102:依次经过各卷积网络层,依次提取出eltwise3_3、conv4_3、fc7、conv6_2及conv7_2的特征;

s103:分别将提取出的特征输入对应的特征分类器,得到对人脸位置的预测结果;

s104:将人脸位置的预测结果合并,输入最终的结果合成器,去掉重复的预测和置信度低的预测后输出检测的最终结果。

所述的预处理步骤包括以下子步骤:

s301:图片尺寸归一化,保证提供给特征提取模型的图片大小统一,使得卷积神经网络正常工作;

s302:人脸关键点对齐,将定位到的人脸关键点根据算法使其处于特定位置;

s303:数据归一化,将处理人脸图像时获得的像素值在[0,255]区间中的像素值除以255,缩放到[0,1]之间;

s304:低分辨率处理,在特征提取之前,采用深度学习中的生成对抗网络预先对小尺寸人脸图像进行超分辨率重建。

所述的特征提取步骤采用卷积神经网络模型架构,网络中使用最大特征映射激活函数,使用更加紧凑的特征代表relu激活函数中的稀疏特征,最大程度保留原始信息,同时实现变量选择和维度的缩减。

所述的特征提取步骤使用center-loss损失函数结合现有softmax损失函数,提高模型的区分度,该center-loss损失函数在训练过程中,每类学习一个特征中心,不断更新中心,缩短最小化特征与对应中心的距离。

基于卷积神经网络的人脸识别装置,包括顺次连接的人脸检测单元、关键点定位单元、预处理单元、特征提取单元和特征比对单元;

人脸检测单元用于检测输入图像中的人脸位置,采用多层cnn特征架构使人脸检测适应不同的成像条件;

关键点定位单元用于从完成人脸检测的人脸图像中定位得到关键点位置,采用深度学习中级联多个基准框回归网络来从给定的人脸图像中得到所需的人脸关键点位置;

预处理单元用于对已找到关键点位置的输入图像进行预处理,获得固定大小的人脸图像;

特征提取单元用于将预处理后的固定大小的人脸图像经过特征提取模型得到特征代表向量;

特征比对单元用于比对提取出的特征代表向量给出人脸识别结果,先计算特征间的距离,根据阈值判定相似性或根据距离排序给出人脸识别结果。

所述的人脸检测单元包括输入层、第一卷积网络层、第一特征分类器、第二卷积网络层、第二特征分类器、第三卷积网络层、第三特征分类器、第四卷积网络层、第四特征分类器、第五卷积网络层、第五特征分类器和结果合成器,输入层的输出端与第一卷积网络层的输入端相连,第一卷积网络层输出eltwise3_3的特征,eltwise3_3的特征输入对应的第一特征分类器;eltwise3_3的特征输入至第二卷积网络层,第二卷积网络层输出conv4_3的特征,conv4_3的特征输入对应的第二特征分类器;conv4_3的特征输入至第三卷积网络层,第三卷积网络层输出fc7的特征,fc7的特征输入对应的第三特征分类器;fc7的特征输入至第四卷积网络层,第四卷积网络层输出conv6_2的特征,conv6_2的特征输入对应的第四特征分类器;conv6_2的特征输入至第五卷积网络层,第五卷积网络层输出conv7_2的特征,conv7_2的特征输入对应的第五特征分类器;各特征分类器的输出端均与结果合成器相连。

所述的预处理单元包括图片尺寸归一化模块、人脸关键点对齐模块、数据归一化模块和低分辨率处理模块;

图片尺寸归一化模块用于对输入图像的图片尺寸进行归一化处理,保证提供给特征提取模型的图片大小统一,使得卷积神经网络正常工作;

人脸关键点对齐模块用于将定位到的人脸关键点根据算法使其处于特定位置;

数据归一化模块用于将处理人脸图像时获得的像素值在[0,255]区间中的像素值除以255,缩放到[0,1]之间;

低分辨率处理模块采用深度学习中的生成对抗网络预先对小尺寸人脸图像进行超分辨率重建。

一种包含所述基于卷积神经网络的人脸识别装置的人脸识别系统。

一种包含所述人脸识别系统的电子设备。

本发明的有益效果是:在深度学习框架下,特征模型采用端到端的方式,直接从原始图像学习判别性的人脸特征。而传统人脸识别方法采用分步法,需要人为设计所需的特征,分步不能保证全局最优,学习到的通用特征不一定适应特定问题。同时,在人为设计参数,寻找映射过程时,缺失了非线性能力,因而不能达到理想的效果。深度学习方法采用智能学习优化的方法,在训练过程中不断调整映射参数,激活函数又增加了非线性能力,人脸识别能力得到质的飞跃。特别是当今,在海量人脸数据的支撑下,借助图像处理器(gpu)的强大处理速度,基于深度学习的人脸检测在速度和精度已经远远超过传统方法,甚至超过人类识别水平。

fddb(facedetectiondatasetandbenchmark)是人脸行业内的标准测试集。传统方法在其离散测试上,100个误检样例的情况下,普遍只有40%的真正例率。而本专利技术可以在100个误检样例的情况下达到80%的真正例率。在保证正确率的情况下,80%tp时的检测时间是30ms左右,89%tp时的检测时间是100ms左右,比传统技术快了10倍以上。

附图说明

图1为本发明人脸识别方法流程图;

图2为本发明人脸检测步骤流程图。

具体实施方式

下面结合附图进一步详细描述本发明的技术方案,但本发明的保护范围不局限于以下所述。

如图1所示,基于卷积神经网络的人脸识别方法,包括以下步骤:

s1:人脸检测,本发明基于深度卷积神经网络算法,从海量图片数据集中训练出一个在监控环境下具有较强鲁棒性的人脸检测网络。卷积神经网络(cnn)是一种深度的监督学习下的机器学习模型,能挖掘数据局部特征,提取全局训练特征和分类,其权值共享结构网络使之更类似于生物神经网络,在模式识别各个领域都得到成功应用。cnn通过结合人脸图像空间的局部感知区域、共享权重、在空间或时间上的降采样来充分利用数据本身包含的局部性等特征,优化模型结构,保证一定的位移不变性。本专利主要采用cnn模型架构,cnn特征具有极强的泛化性能,因此能够应对光照、遮挡、角度等等问题。在传统cnn单层特征架构上,我们又增加了多层cnn特征的组合以应对不同的成像条件(例如不同的图像尺度)。

由于整个过程是端到端,并且有大量可并行的计算,因此整个检测过程可通过通用gpu进行加速,使得整个过程可在100ms以内完成。

所述的人脸检测步骤包括以下子步骤:

s101:图片从输入层进入网络;

s102:依次经过各卷积网络层,分别提取出eltwise3_3、conv4_3、fc7、conv6_2及conv7_2的特征;

s103:分别将提取出的特征输入对应的特征分类器,得到对人脸位置的预测结果;

s104:将人脸位置的预测结果合并,输入最终的结果合成器,去掉重复的预测和置信度低的预测后输出检测的最终结果。

s2:关键点定位,人脸关键点是指人脸中具有特质特征的区域,比如眼睛、嘴角等。人脸的关键点定位不仅对人脸识别有很大的作用,而且可以为后续人脸对齐提供基础。本专利摒弃传统线性模型刻画人脸形状的方法,采用深度学习中级联多个基准框回归网络来从给定的人脸图像得到所需的人脸关键点位置。该网络经过大量真实数据进行预训练,实验表明,经过一次调用可以得到相当精确的人脸关键点坐标,对大姿态、不同表情、部分遮挡都有不错的效果。

s3:预处理,对于人脸识别模型来说,输入图像的预处理非常重要。常见的预处理方法包括图片尺寸的归一化、人脸关键点对齐、数据归一化、低分辨率处理等,而其中最重要的是人脸关键点对齐。在实际应用中,采集到的人脸图像有多种姿态角度变化,为使得深度学习网络能更容易从人脸图像中获得更具表征力的特征,设计中将定位到的人脸关键点根据一定算法使其处于特定位置。图片尺寸归一化操作保证了提供给特征提取模型的图片大小是统一,使得卷积神经网络(convolutionalneuralnetwork,cnn)正常工作。在处理人脸图像时,通常获得的像素值在[0,255]区间中,数据归一化即将这些像素值除以255,将它们缩放到[0,1]之间。该做法目的是维持特征各维度的平衡,提升精度。实际应用中采集的图片,当被监控的人群距离摄像头较远时,将导致检测到人脸区域较小,图像质量低,信息量大大下降,进而特征提取模型不能提取到有效的特征信息,严重影响模型的识别能力。本设计采用特征提取之前,采用深度学习中的生成对抗网络(generativeadversarialnetwork,gan)预先对小尺寸人脸图像进行超分辨率重建,一定程度上恢复人脸有效信息,提升低分辨率人脸识别的准确率。

s4:特征提取,特征提取即将预处理后的固定大小的人脸图像经过特征提取模型得到特征代表向量的过程。特征提取模型能否快速有效地得到具有很好的区分性的特征,即使得同一人的特征在面部表情变化、姿态、年龄等发生变化时,区分尽可能小,而不同人的特征在光照、背景变化时,区分尽可能大,是衡量该模型的重要指标。

卷积神经网络(cnn)是一种深度的监督学习下的机器学习模型,能挖掘数据局部特征,提取全局训练特征和分类,其权值共享结构网络使之更类似于生物神经网络,在模式识别各个领域都得到成功应用。cnn通过结合人脸图像空间的局部感知区域、共享权重、在空间或时间上的降采样来充分利用数据本身包含的局部性等特征,优化模型结构,保证一定的位移不变性。本设计主要采用cnn模型架构,外加一些新的设计。

网络中使用最大特征映射(max-feature-map,mfm)激活函数,在通常的cnn网络中,使用relu激活函数,其潜在的劣势是在不断训练优化的过程中如果某些神经元无法被激活,这些值将会为0,这会导致对应信息的丢失。采用mfm激活函数,能使用更加紧凑的特征代表relu中的稀疏特征,最大程度保留原始信息,同时实现变量选择和维度的缩减。除此之外,使用center-loss损失函数结合现有的常用softmax损失函数,进一步提高模型的区分度。不同于一般的损失函数,center-loss在训练过程中,每类学习一个特征中心,不断更新中心,推近最小化特征与对应中心的距离。直观上来看,softmax-loss使得不同类的特征分离,而center-loss有效推进相同类的特征靠近中心。随着训练达到平衡状态,模型将具有更好的区分度,识别能力也将增强。

s5:特征比对,特征对比是人脸识别流程中的最终判别部分。通过模型提取到的两个或多个特征,需要采用一定策略来决定最终结果。通常先计算特征间的距离,根据阈值判定相似性或根据距离排序给出人脸识别结果。

针对1vs1应用方向,又称人脸验证(faceverification),主要用于快速的人脸识别对比,可作为身份确认的一种方式。在人脸验证过程中,首先调用人脸检测模型检测出两张给定图片的人脸信息。之后进入关键点标定过程,分别得到五个关键点的坐标,经过预处理,根据坐标信息,将图片旋转、裁剪、处理至特定格式。将处理后的人脸图像输入特征提取模型,得到对应特征信息。最后计算两个人脸特征向量距离,根据设定阈值,小于该阈值则属于同一人,否则不是。

针对1vsn应用方向,又称人脸识别(facerecognition),主要用于查找特定人,确定人员身份,一般以相似度列出多个结果。与人脸验证的主要区别是,一般会提前建立相应人员的特征库,即对n个人员的人脸图像进行采集、提取特征、入库。实际应用中,可快速根据待查找人员图像进行处理和比对,给出查找结果。

基于卷积神经网络的人脸识别装置,包括顺次连接的人脸检测单元、关键点定位单元、预处理单元、特征提取单元和特征比对单元;人脸检测单元用于检测输入图像中的人脸位置,采用多层cnn特征架构使人脸检测适应不同的成像条件;关键点定位单元用于从完成人脸检测的人脸图像中定位得到关键点位置,采用深度学习中级联多个基准框回归网络来从给定的人脸图像中得到所需的人脸关键点位置;预处理单元用于对已找到关键点位置的输入图像进行预处理,获得固定大小的人脸图像;特征提取单元用于将预处理后的固定大小的人脸图像经过特征提取模型得到特征代表向量;特征比对单元用于比对提取出的特征代表向量给出人脸识别结果,先计算特征间的距离,根据阈值判定相似性或根据距离排序给出人脸识别结果。

如图2所示,所述的人脸检测单元包括输入层、第一卷积网络层convolutionlayerblocks、第一特征分类器、第二卷积网络层convolutionlayerblocks、第二特征分类器、第三卷积网络层convolutionlayerblocks、第三特征分类器、第四卷积网络层convolutionlayerblocks、第四特征分类器、第五卷积网络层convolutionlayerblocks、第五特征分类器和结果合成器,图片data从输入层进入网络,输入层的输出端与第一卷积网络层的输入端相连,第一卷积网络层输出eltwise_stage3(eltwise3_3)的特征,eltwise3_3的特征输入对应的第一特征分类器;eltwise3_3的特征输入至第二卷积网络层,第二卷积网络层输出conv4_3的特征,conv4_3的特征输入对应的第二特征分类器;conv4_3的特征输入至第三卷积网络层,第三卷积网络层输出fc7的特征,fc7的特征输入对应的第三特征分类器;fc7的特征输入至第四卷积网络层,第四卷积网络层输出conv6_2的特征,conv6_2的特征输入对应的第四特征分类器;conv6_2的特征输入至第五卷积网络层,第五卷积网络层输出conv7_2的特征,conv7_2的特征输入对应的第五特征分类器;各特征分类器的输出端均与结果合成器相连,特征分类器得到对人脸位置的预测结果,结果合成器去掉重复的预测和置信度较低的预测后输出检测的最终结果。

所述的预处理单元包括图片尺寸归一化模块、人脸关键点对齐模块、数据归一化模块和低分辨率处理模块;图片尺寸归一化模块用于对输入图像的图片尺寸进行归一化处理,保证提供给特征提取模型的图片大小统一,使得卷积神经网络正常工作;人脸关键点对齐模块用于将定位到的人脸关键点根据算法使其处于特定位置;数据归一化模块用于将处理人脸图像时获得的像素值在[0,255]区间中的像素值除以255,缩放到[0,1]之间;低分辨率处理模块采用深度学习中的生成对抗网络预先对小尺寸人脸图像进行超分辨率重建。

一种包含所述基于卷积神经网络的人脸识别装置的人脸识别系统。

一种包含所述人脸识别系统的电子设备。

在人脸识别发展过程中,lfw(labeledfaceinthewild)数据库一直被作为是测试基准。经典的传统人脸识别算法eigenface在lfw中的识别率只有60%,而深度学习算法的识别率已经可以达到99%。lfw数据库是由美国马萨诸塞大学阿姆斯特分校计算机视觉实验室整理完成,用于研究非受限情形下的人脸识别问题,已成为学术界评价识别性能的标准参照。lfw数据库包含1万3千多张从互联网采集到的人脸图片,这些图片覆盖范围广,人脸表情姿态各异,具有不小的挑战。测试要求对6000对图像进行判别是否为同一人,其中3000对为同一人判别,3000对为不同人判别。经验证,本设计中的模型在lfw上的测试结果高达99.3%,证明其从海量的数据中学习到对于光照、表情、角度等不变的特性。

以上所述仅是本发明的优选实施方式,应当理解本发明并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文所述构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1