面部表情识别方法、装置、计算机设备及存储介质与流程

文档序号:18741981发布日期:2019-09-21 01:52阅读:227来源:国知局
面部表情识别方法、装置、计算机设备及存储介质与流程
本发明涉及图像识别领域,尤其涉及一种面部表情识别方法、装置、计算机设备及存储介质。
背景技术
:随着安全入口控制和金融贸易方面应用需要的快速增长,生物统计识别技术的到了新的重视。目前,微电子和视觉系统方面取得的新进展,使该领域中高性能自动识别技术的实现代价降低到了可以接受的程度。而人脸识别是所有的生物识别方法中应用最广泛的技术之一,人脸识别技术是一项近年来兴起的,但不大为人所知的新技术。在国外,人脸识别技术早已被大量使用在国家重要部门以及军警等安防部门。在国内,对于人脸识别技术的研究始于上世纪90年代,目前主要应用在公安、金融、网络安全、物业管理以及考勤等领域。在人脸识别技术的应用中,快速进行识别人脸图像中的面部表情,对进行人脸分析和情绪识别方面具有重要作用,当前,主要通过模式匹配的方式来进行人脸图像的面部表情识别,也即,通过计算人脸图像中数据特征矩阵与不同模板的数据特征矩阵的相似度,将相似度值最大的模板对应的面部表情作为识别结果,但该方式准确度较低,无法满足实际应用需求。技术实现要素:本发明实施例提供一种面部表情识别方法、装置、计算机设备和存储介质,以解决当前对人脸图像进行面部表情识别准确度低的问题。一种面部表情识别方法,包括:获取初始人脸图像,并对所述初始人脸图像进行人脸检测,得到目标人脸图像;采用预设人脸对齐方法,提取所述目标人脸图像中的局部特征点;将所述目标人脸图像输入到面部注意力机制的卷积神经网络模型中,其中,所述面部注意力机制的卷积神经网络模型包括对象网络和注意力网络,所述对象网络和所述注意力网络均为卷积神经网络;采用所述对象网络,提取所述目标人脸图像中的整体面部特征数据;采用所述注意力网络,提取所述局部特征点区域对应的特征数据,作为局部特征数据;对所述整体面部特征数据和所述局部特征数据进行加权识别,得到面部表情识别结果。一种面部表情识别装置,包括:图像获取模块,用于获取初始人脸图像,并对所述初始人脸图像进行人脸检测,得到目标人脸图像;特征点提取模块,用于采用预设人脸对齐方法,提取所述目标人脸图像中的局部特征点;图像输入模块,用于将所述目标人脸图像输入到面部注意力机制的卷积神经网络模型中,其中,所述面部注意力机制的卷积神经网络模型包括对象网络和注意力网络,所述对象网络和所述注意力网络均为卷积神经网络;第一特征提取模块,用于采用所述对象网络,提取所述目标人脸图像中的整体面部特征数据;第二特征提取模块,用于采用所述注意力网络,提取所述局部特征点区域对应的特征数据,作为局部特征数据;表情识别模块,用于对所述面部特征数据和所述局部特征数据进行加权识别,得到面部表情识别结果。一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述面部表情识别方法的步骤。一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述面部表情识别方法的步骤。本发明实施例提供的面部表情识别方法、装置、计算机设备及存储介质,获取初始人脸图像,并对初始人脸图像进行人脸检测,得到目标人脸图像,再采用预设人脸对齐方法,提取目标人脸图像中的局部特征点,同时,将目标人脸图像输入到面部注意力机制的卷积神经网络模型中,其中,面部注意力机制的卷积神经网络模型包括对象网络和注意力网络,对象网络和注意力网络均为卷积神经网络,采用对象网络,提取目标人脸图像中的整体面部特征数据,采用注意力网络,提取局部特征点区域对应的特征数据,作为局部特征数据,通过对面部特征数据和局部特征数据进行加权识别,得到面部表情识别结果,采用对面部特征数据和局部特征数据进行加权后识别的方式,提升了面部表情识别的准确率,同时,使用神经网络的方式进行识别,有利于提高识别效率。附图说明为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。图1是本发明实施例提供的面部表情识别方法的实现流程图;图2是本发明实施例提供的面部表情识别方法中步骤S20的实现流程图;图3是本发明实施例提供的面部表情识别方法中步骤S50的实现流程图;图4是本发明实施例提供的面部表情识别方法中步骤S60的实现流程图;图5是本发明实施例提供的面部表情识别装置的示意图;图6是本发明实施例提供的计算机设备的示意图。具体实施方式下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。请参阅图1,图1示出本发明实施例提供的一种面部表情识别方法,详述如下:S10:获取初始人脸图像,并对初始人脸图像进行人脸检测,得到目标人脸图像。具体地,获取初始人脸图像,并对初始人脸图像进行图像预处理,并在图像预处理之后进行人脸检测,得到目标人脸图像。其中,图像预处理包括但不限于:灰度化、人脸边缘检测和倾斜校正等。由于内容图像可能会存在不同程度的倾斜,影响模型识别结果,因此,需对内容图像进行透视变换即将内容图像投影到一个新的视平面的过程,获取矫正后的图像,也即,实现图像预处理中的图像变换。本案中,透视变换的的处理方法包括但不限于采用OpenCv中的perspectiveTransform()函数进行透视变换处理。OpenCV是一个包含大量开源API(ApplicationProgrammingInterface,应用程序编程接口)的跨平台计算机视觉库,同时提供了Python、Ruby、MATLAB等语言的接口,实现了图像处理和计算机视觉方面的很多通用算法。其中,人脸检测方法包括但不限于:Adaboost人脸检测算法、基于局部约束模型的人脸检测、不变特征方法、模板匹配方法以及统计模型方法等。S20:采用预设人脸对齐方法,提取目标人脸图像中的局部特征点。具体地,采用预设人脸对齐方法,对目标人脸图像进行特征点提取,并将提取到的特征点按照预设条件筛选,得到局部特征点。其中,预设的人脸对齐方法,具体可以是模板匹配的方式。优选的,本实施例采用K-means聚类算法对人脸对齐后的面部特征点进行聚类,挑选目标人脸图像中的局部特征点,具体描述可参考步骤S21至步骤S25,为避免重复,此处不再赘诉。需要说的是,局部特征点为两个或两个以上。S30:将目标人脸图像输入到面部注意力机制的卷积神经网络模型中,其中,面部注意力机制的卷积神经网络模型包括对象网络和注意力网络,对象网络和注意力网络均为卷积神经网络。具体地,将目标人脸图像输入到面部注意力机制的卷积神经网络模型中,以便后续通过面部注意力机制的卷积神经网络模型对目标人脸图像进行表情识别。其中,面部注意力机制的卷积神经网络模型包括对象网络和注意力网络,对象网络用于识别目标人脸图像中的全部数据特征,注意力网络用于提取目标人脸图像中,与表情相关的部件的特征,例如眼睛、嘴巴和鼻子等,本实施例中的对象网络和注意力网络均通过卷积神经网络来实现。其中,卷积神经网络(ConvolutionalNeuralNetworks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(FeedforwardNeuralNetworks),卷积神经网络具有表征学习(representationlearning)能力,能够按其阶层结构对输入信息进行平移不变分类(shift-invariantclassification)。优选地,本实施例中的对象网络采用的VGG16网络,VGG16网络(VisualGeometryGroupNET)模型是一种深度神经网络模型,其网络结构包含:13个卷积层、5个池化层和3个全连接层。优选地,本实施例中地部件注意力采用的基于注意力机制的卷积神经网络,该基于注意力机制的卷积神经网络包括输入层、卷积层和特征裁剪层和全连接层,特征裁剪层用于对特征图进行裁剪。S40:采用对象网络,提取目标人脸图像中的面部特征数据。具体地,通过对象网络,对目标人脸图像进行特征提取,得到目标人脸图像中地面部特征数据。S50:采用注意力网络,提取局部特征点区域对应的特征数据,作为局部特征数据。具体地,采用注意力网络的输入层和卷积层,提取目标人脸图像的卷积数据,同时,将局部特征点对应的位置映射到卷积数据对应的特征图上,得到局部特征点在特征图上对应的中心位置,进而按照预设大小的邻域和得到的中心位置,对特征图进行裁剪,将裁剪出的卷积数据,作为局部特征数据。容易理解地,局部特征点区域对应的特征为对面部表情影响较大的面部特征,例如:眼睛、鼻子等,本实施例裁剪出独立的局部特征点区域对应的局部特征数据,有利于提高通过使用局部特征数据参与面部表情识别时的准确率。需要说明的是,步骤S30至步骤S40,与步骤S20之间,没有必须的先后顺序,其也可以是并列关系,此处不做限制。S60:对面部特征数据和局部特征数据进行加权识别,得到面部表情识别结果。具体地,通过对面部特征数据和局部特征数据进行加权,得到加权后的综合数据特征,并使用全连接的分类器对综合数据特征进行分类识别,得到面部表情识别结果。在本实施例中,获取初始人脸图像,并对初始人脸图像进行人脸检测,得到目标人脸图像,再采用预设人脸对齐方法,提取目标人脸图像中的局部特征点,同时,将目标人脸图像输入到面部注意力机制的卷积神经网络模型中,其中,面部注意力机制的卷积神经网络模型包括对象网络和注意力网络,对象网络和注意力网络均为卷积神经网络,采用对象网络,提取目标人脸图像中的面部特征数据,采用注意力网络,提取局部特征点对应的特征数据,作为局部特征数据,通过对面部特征数据和局部特征数据进行加权识别,得到面部表情识别结果,采用对面部特征数据和局部特征数据进行加权后识别的方式,提升了面部表情识别的准确率,同时,使用神经网络的方式进行识别,有利于提高识别效率。在图1对应的实施例的基础之上,下面通过一个具体的实施例来对步骤S20中所提及的采用预设人脸对齐方法,提取目标人脸图像中的局部特征点的具体实现方法进行详细说明。请参阅图2,图2示出了本发明实施例提供的步骤S20的具体实现流程,详述如下:S21:从目标人脸图像中进行面部特征数据点提取,得到特征数据集,并从特征数据集中随机选取m个特征数据作为聚类中心,其中,m为正整数。具体地,m为根据需要预设的聚类中心个数,从目标人脸图像中进行特征数据提取,得到特征数据集,并从特征数据集中随机选取m个特征数据作为聚类中心。S22:针对特征数据集中的每个特征数据,计算该特征数据与每个聚类中心之间的第一距离,将该特征数据放入最小第一距离对应的聚类中心所在的聚类中,得到m个临时聚类。具体地,针对每个特征数据,计算该特征数据与每个聚类中心之间的空间距离,作为第一距离,得到m个第一距离,并从该m个第一距离中获取最小值作为做小第一距离,将该特征数据与最小第一距离对应的聚类中心放入同一个聚类中,依照这个方法,得到m个临时聚类。例如,在一具体实施方式中,存在8个特征数据,预设的聚类中心个数为3个,在随机生成三个聚类中心之后,分别计算得到每个特征数据分别到三个聚类中心的第一距离如表一所示:表一聚类中心1聚类中心2聚类中心3特征数据10.51.90.7特征数据22.50.20.9特征数据31.30.10.8特征数据41.60.10.7特征数据51.80.90.2特征数据60.60.81.6特征数据70.70.80.2特征数据81.10.30.9根据计算出的这些第一距离,很容易得到各特征数据到三个聚类中心的最小第一距离,例如,特征数据1到三个聚类中心的最小第一距离为0.5,因此将特征数据1放入聚类中心1所在的聚类中,按照这个方法,得到的三个临时聚类分别为:临时聚类1(特征数据1,特征数据6)、临时聚类2(特征数据2,特征数据3,特征数据4,特征数据8)和临时聚类3(特征数据5,特征数据7)。S23:按照预设公式,对m个临时聚类重新生成聚类中心。具体地,根据预设公式,重新计算聚类中心,生成m个聚类中心。其中,预设公式可以根据实际需要进行设置,优选的,本实施例采用的预设公式为:其中,μj为新的聚类中心,Cj为更新前的聚类中心。S24:返回执行针对特征数据集中的每个特征数据,计算该特征数据与每个聚类中心之间的第一距离,将该特征数据放入最小第一距离对应的聚类中心所在的聚类中,得到m个临时聚类的步骤,直到迭代次数达到预设次数。具体地,在每次更新聚类中心后,统计聚类中心更新的次数,在聚类中心更新次数小于预设次数时,返回步骤S22继续执行,在更新次数达到预设次数时,终止该过程,并执行步骤S25。S25:将得到的m个临时聚类作为目标人脸图像中的局部特征点。具体地,将达到预设次数时的m个临时聚类,作为目标人脸图像中的局部特征点。进一步地,在得到目标人脸图像中的局部特征点后,使用Calinski-Harabasz指标对得到的局部特征点进行评价,选取Calinski-Harabasz指标评价后达到预设条件的局部特征点,作为最终的局部特征点,参与后续局部特征数据的提取。其中,Calinski-Harabasz指标是一种针对K-Means聚类的评价方法,通过计算聚类中心与簇内各个特征数据之间的协方差,得到聚类的综合评分,评分越高,证明聚类效果越好。其中,预设条件具体可以是预设的评分分值。在本实施例中,从目标人脸图像中进行特征数据提取,得到特征数据集,并从特征数据集中随机选取m个特征数据作为聚类中心,针对特征数据集中的每个特征数据,计算该特征数据与每个聚类中心之间的第一距离,将该特征数据放入最小第一距离对应的聚类中心所在的聚类中,得到m个临时聚类,按照预设公式,对m个临时聚类重新生成聚类中心,返回执行针对特征数据集中的每个特征数据,计算该特征数据与每个聚类中心之间的第一距离,将该特征数据放入最小第一距离对应的聚类中心所在的聚类中,得到m个临时聚类的步骤,直到迭代次数达到预设次数,将得到的m个临时聚类作为目标人脸图像中的局部特征点,通过训练的方式,智能化获取表征人脸主要特征的局部特征点,提高局部特征点获取的准确率。在图1对应的实施例的基础之上,下面通过一个具体的实施例来对步骤S50中所提及的采用注意力网络,提取局部特征点对应的特征数据,作为局部特征数据的具体实现方法进行详细说明。请参阅图3,图3示出了本发明实施例提供的步骤S50的具体实现流程,详述如下:S51:通过注意力网络的输入层获取目标人脸图像的多通道数据。具体地,通过注意力网络的输入层提取目标人脸图像中的多通道数据,并将多通道数据传递给卷积层。其中,多通道数据是指每个通道的数据,通道个数可根据实际情况进行设置,此处不作具体限制,优选地,本发明实施例通道个数设置为3。S52:通过注意力网络的卷积层对多通道数据进行卷积处理,得到卷积数据。具体地,通过注意力网络的卷积层对多通道数据进行卷积处理,得到多通道数据进行卷积处理后的卷积数据,用以后续的特征提取。其中,卷积层(Convolutionallayer)由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法最佳化得到的。卷积处理的目的是得到表示不同特征的卷积数据,即方便后续提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,越深层级的网路能从低级特征中迭代提取更复杂的特征。值得说明的是,在本发明实施例中,存在预设层数的卷积层,具体预设的数量可根据实际情况进行确定,作为一种优选方式,本发明实施例预设的卷积层为13层,同时,本实施例中的注意力网络还包括特征裁剪层,该特征裁剪层在第10层卷积层和第11层卷积层之间,用于提取卷积数据中与面部表情相关的特征数据。S53:采用注意力网络的特征裁剪层,获取局部特征点区域对应的卷积数据,并对局部特征点区域对应的卷积数据卷积和池化处理,得到局部特征数据。具体地,根据局部特征点对应的相对位置,获取每个局部特征点对应的特征图位置中心,并根据预设大小的邻域,对步骤S52中得到的卷积数据进行裁剪,得到局部特征点对应的卷积数据,在得到卷积数据后,再对该卷积数据进行特征提取,保留需要的重要特征,摒弃掉无关紧要的信息,从而得到可以用于后续面部表情预测的特征数据。其中,在本发明实施例中,特征提取是通过池化层来实现,池化层紧跟在卷积层之后,用于压缩数据和参数的量,使得对面部表情预测无关的信息和重复的信息被去掉,同时,池化层还可以减小过拟合,有利于提高识别精度。需要说明的是,本实施例对部件注意网络中裁减部分的特征图形式进行了转变,转变特征图的尺寸,以便更好参与卷积运算,在一具体实施方式中,局部特征点的个数为N,批尺寸为B,通道数为C,特征图的高度为H,宽度为W,则裁剪后的特征图尺寸为B×C×H×W×N,进而对特征图尺寸进行处理,转变为(B×N)×C×H×W,相当于将批尺寸扩大了N倍,进而将转变后的每一张部件特征图作为独立的图像进行训练,减少运算量,提高处理效率。在本实施例中,通过注意力网络的输入层对目标人脸图像的多通道数据,并通过注意力网络的卷积层对多通道数据进行卷积处理,得到卷积数据,进而采用注意力网络的特征裁剪层,获取局部特征点对应的卷积数据,并对局部特征点对应的卷积数据卷积和池化处理,得到局部特征数据,使得得到的局部特征数据为面部特征点对应的卷积数据,有利于后续通过该卷积数据进行面部表情识别。在图1对应的实施例的基础之上,下面通过一个具体的实施例来对步骤S60中所提及的通过全连接层对面部特征数据和局部特征数据进行加权识别,得到面部表情识别结果的具体实现方法进行详细说明。请参阅图4,图4示出了本发明实施例提供的步骤S60的具体实现流程,详述如下:S61:获取预设的第一加权系数和预设的第二加权系数。具体地,获取预设好的第一加权系数和第二加权系数。在本实施例中,面部特征数据和局部特征数据是从不同角度体现人脸面部特征,本实施例预先设置有第一加权系数和第二加权系数,该第一加权系数和第二加权系数用于对面部特征数据和局部特征数据进行加权,以便面部特征数据和局部特征数据更为准确体现面部特征。其中,第一加权系数和第二加权系数可以根据实际需要进行设置,例如,第一加权系数和第二加权系数分别设置为0.7和0.6,此处不做限制。S62:使用预设的第一加权系数对面部特征数据进行加权,得到第一加权数据,使用设的第二加权系数对局部特征数据进行加权,得到第二加权数据,并将第一加权数据和第二加权数据进行综合,得到综合特征数据。具体地,使用预设的第一加权系数对面部特征数据进行加权,得到第一加权数据,使用设的第二加权系数对局部特征数据进行加权,得到第二加权数据,并将第一加权数据和第二加权数据进行综合,得到综合特征数据。在一具体实施方式中,通过以下公式进行加权和综合,得到综合特征数据:F=argmax(kX1+X2)其中,F为综合特征数据,X1为面部特征数据,X2为局部特征数据,k为第一加权系数与第二加权系数的比值。S63:使用全连接层的n个预设分类器对综合特征数据进行相似度计算,得到综合特征数据属于该分类器对应的行为类别的概率,共得到n个概率,其中,每个分类器对应一种面部表情类别。具体地,在全连接层预设有n个训练好的分类器,将每个分类器均与特征数据进行相似度计算,得到综合特征数据属于该分类器对应的行为类别的概率,共得到n个概率,每个概率对应一种人脸面部表情的概率。其中,分类器对应的面部表情类别可根据实际需要进行训练,分类器的数量n也可根据需要进行设置,此处不作具体限制,例如,n设置为7,即包括7种面部表情。其中,分类器实现方法包括但不限于:逻辑回归(LogisticRegression,LR)、支持向量机((SupportVectorMachine,SVM)、交叉熵(CorssEntropy)和softmax回归等。优选地,本发明实施例采用softmax回归来实现多个分类器的分类识别。其中,面部表情类型包括但不限于:微笑、愤怒、恐惧和紧张等,具体可依据实现情况进行设置,此处不作限制。S64:从n个概率中,选取概率最大的面部表情类别作为目标数据对应的面部表情识别结果。具体地,在步骤S63得到n个概率中,选取值最大的概率对应的面部表情类别作为目标人脸图像对应的面部表情识别结果。在本实施例中,通过获取预设的第一加权系数和预设的第二加权系数,并使用预设的第一加权系数对面部特征数据进行加权,得到第一加权数据,使用设的第二加权系数对局部特征数据进行加权,得到第二加权数据,进而将第一加权数据和第二加权数据进行综合,得到综合特征数据,再使用n个预设分类器对综合特征数据进行相似度计算,得到综合特征数据属于该分类器对应的行为类别的概率,共得到n个概率,从n个概率中,选取概率最大的面部表情类别作为目标数据对应的面部表情识别结果,采用对面部特征数据和局部特征数据进行加权后再得到综合数据特征并识别的方式,提高了面部表情识别准确率。应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。图5示出与上述实施例面部表情识别方法一一对应的面部表情识别装置的原理框图。如图5所示,该面部表情识别装置包括图像获取模块10、特征点提取模块20、图像输入模块30、第一特征提取模块40、第二特征提取模块50和表情识别模块60。各功能模块详细说明如下:图像获取模块10,用于获取初始人脸图像,并对初始人脸图像进行人脸检测,得到目标人脸图像;特征点提取模块20,用于采用预设人脸对齐方法,提取目标人脸图像中的局部特征点;图像输入模块30,用于将目标人脸图像输入到面部注意力机制的卷积神经网络模型中,其中,面部注意力机制的卷积神经网络模型包括对象网络和注意力网络,对象网络和注意力网络均为卷积神经网络;第一特征提取模块40,用于采用对象网络,提取目标人脸图像中的整体面部特征数据;第二特征提取模块50,用于采用注意力网络,提取局部特征点区域对应的特征数据,作为局部特征数据;表情识别模块60,用于对面部特征数据和局部特征数据进行加权识别,得到面部表情识别结果。进一步,特征点提取模块20包括:初始聚类中心选取单元,用于从目标人脸图像中进行特征数据提取,得到特征数据集,并从特征数据集中随机选取m个特征数据作为聚类中心,其中,m为正整数;临时聚类单元,用于针对特征数据集中的每个特征数据,计算该特征数据与每个聚类中心之间的第一距离,将该特征数据放入最小第一距离对应的聚类中心所在的聚类中,得到m个临时聚类;聚类中心生成单元,用于按照预设公式,对m个临时聚类重新生成聚类中心;循环迭代单元,用于返回执行针对特征数据集中的每个特征数据,计算该特征数据与每个聚类中心之间的第一距离,将该特征数据放入最小第一距离对应的聚类中心所在的聚类中,得到m个临时聚类的步骤,直到迭代次数达到预设次数;局部特征点确定单元,用于将得到的m个临时聚类结果作为目标人脸图像中的局部特征点。进一步地,第二特征提取模块50包括:多通道数据提取单元,用于通过注意力网络的输入层获取目标人脸图像的多通道数据;数据卷积单元,用于通过注意力网络的卷积层对多通道数据进行卷积处理,得到卷积数据;数据裁剪单元,用于采用注意力网络的特征裁剪层,获取局部特征点对应的卷积数据,并对局部特征点对应的卷积数据卷积和池化处理,得到局部特征数据。进一步地,表情识别模块60包括:系数获取单元,用于获取预设的第一加权系数和预设的第二加权系数;数据综合单元,用于使用预设的第一加权系数对面部特征数据进行加权,得到第一加权数据,使用设的第二加权系数对局部特征数据进行加权,得到第二加权数据,并将第一加权数据和第二加权数据进行综合,得到综合特征数据:概率计算单元,用于使用n个预设分类器对综合特征数据进行相似度计算,得到综合特征数据属于该分类器对应的行为类别的概率,共得到n个概率,其中,每个分类器对应一种面部表情类别;结果确定单元,用于从n个概率中,选取概率最大的面部表情类别作为目标数据对应的面部表情识别结果。关于面部表情识别装置的具体限定可以参见上文中对于面部表情识别方法的限定,在此不再赘述。上述面部表情识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。图6是本发明一实施例提供的计算机设备的示意图。该计算机设备可以是服务端,其内部结构图可以如图6所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储面部注意力机制的卷积神经网络模型。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种面部表情识别方法。在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例面部表情识别方法的步骤,例如图1所示的步骤S10至步骤S60。或者,处理器执行计算机程序时实现上述实施例面部表情识别装置的各模块/单元的功能,例如图5所示的模块10至模块60的功能。为避免重复,这里不再赘述。所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。在一实施例中,提供一计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例面部表情识别方法的步骤,或者,该计算机程序被处理器执行时实现上述实施例面部表情识别装置中各模块/单元的功能。为避免重复,这里不再赘述。可以理解地,所述计算机可读存储介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(RandomAccessMemory,RAM)、电载波信号和电信信号等。以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。当前第1页1 2 3 
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1