人脸识别方法及装置与流程

文档序号:14951022发布日期:2018-07-17 22:33阅读:150来源:国知局

本发明涉及图像处理技术领域,尤其涉及一种人脸识别方法及装置。



背景技术:

随着计算机技术的不断发展,生物特征识别技术的应用范围越来越广泛,特别是人脸识别技术的应用越来越受到人们的重视,这同时也提高了对人脸识别技术的识别精度的要求。

目前,人脸识别技术主要包括人脸轮廓识别和人脸五官识别等,人脸识别技术的识别精度低,人脸识别技术的使用范围小,人脸识别技术的适用性低。



技术实现要素:

本发明实施例提供了一种人脸识别方法及装置,可提高人脸识别技术的识别精度,提升人脸识别技术的适用性。

第一方面提供了一种人脸识别方法,其可包括:

获取目标待识别图像,在上述目标待识别图像中确定出下眼睑区域,并对该下眼睑区域内的下眼睑图像进行二值化处理,以获取目标图像。从上述目标图像中提取下眼睑特征参数,其中,上述下眼睑特征参数至少包括上述目标图像的黑色像素点分布特征值以及上述目标图像的重心位置中的一种。将上述目标图像的黑色像素点分布特征值和/或上述目标图像的重心位置输入到分类器中,并根据该分类器的输出结果确定上述目标待识别图像中的下眼睑的类型。该下眼睑的类型包括卧蚕或者眼袋。

在一些可行的实施方式中,上述在上述目标待识别图像内确定出下眼睑区域包括:在上述目标待识别图像中定位出人脸关键点。其中,该人脸关键点为该目标待识别图像中用于确定人脸轮廓和五官轮廓的像素点。从上述人脸关键点中获取用于确定人眼轮廓的n个目标人脸关键点,其中,n为大于1的正整数。获取上述n个目标人脸关键点中各目标人脸关键点在上述目标待识别图像中的水平位置和垂直位置,并根据各目标人脸关键点在上述目标待识别图像中的水平位置和垂直位置确定下眼睑区域。

在一些可行的实施方式中,上述目标图像的黑色像素点分布特征值包括目标图像的黑色像素点个数和/或目标图像的黑色像素点混乱程度值;从上述目标图像中提取下眼睑特征参数包括:

获取上述目标图像对应的图像矩阵,根据该图像矩阵确定上述目标图像的黑色像素点个数,并将上述目标图像的黑色像素点个数确定为上述下眼睑特征参数;

或者,获取所述目标图像对应的图像矩阵,根据该图像矩阵确定上述目标图像的重心位置,并将该目标图像的重心位置确定为上述下眼睑特征参数;上述重心位置包括上述目标图像的重心在该目标图像内的水平位置和垂直位置;

或者,获取所述目标图像对应的图像矩阵。确定上述目标图像中每个黑色像素点在该目标图像中的水平位置和垂直位置,并根据该目标图像中每个黑色像素点在该目标图像中的水平位置和垂直位置确定该目标图像的黑色像素点混乱程度值,以将该目标图像的黑色像素点混乱程度值确定为上述下眼睑特征参数。

在一些可行的实施方式中,上述目标图像的黑色像素点分布特征值包括目标图像的黑色像素点个数和/或目标图像的黑色像素点混乱程度值;从上述目标图像中提取下眼睑特征参数包括:

将该目标图像划分成p个子图像,其中,p为大于1的正整数。获取上述p个子图像中各个子图像所对应的图像矩阵。

根据上述p个子图像中各个子图像所对应的图像矩阵确定该p个子图像中各个子图像的黑色像素点个数,并将上述各个子图像的黑色像素点个数之和确定为目标图像的黑色像素点个数;

或者,根据上述p个子图像中各个子图像所对应的图像矩阵确定p个子图像中各个子图像的重心位置,并将上述各个子图像的重心位置确定为目标图像的重心位置;其中,上述各个子图像的重心位置包括各个子图像的重心在目标图像内的水平位置和垂直位置;

或者,获取上述各个子图像中每个黑色像素点在该目标图像中的水平位置和垂直位置,并根据上述各个子图像中每个黑色像素点在该目标图像中的水平位置和垂直位置确定上述各个子图像的黑色像素点混乱程度值,以将上述各个子图像的黑色像素点混乱程度值确定为目标图像的黑色像素点混乱程度值。

在一些可行的实施方式中,上述方法还包括:

获取m张用于训练的人脸图片和m个类别标签,一个上述类别标签用于标记一张用于训练的人脸照片中的下眼睑的类型。上述m张用于训练的人脸图片包括m1张下眼睑类型为卧蚕的人脸图片、m2张下眼睑类型为眼袋的人脸图片以及m3张下眼睑类型为除卧蚕及眼袋以外的普通下眼睑的人脸图片。其中,m1、m2和m3均为大于0的正整数,m为大于2的正整数。从上述m张用于训练的人脸图片中的每张用于训练的人脸图片所对应的下眼睑区域内提取下眼睑特征参数,以获取上述m张用于训练的人脸图片对应的m组下眼睑特征参数。使用上述m组下眼睑特征参数和m个类别标签对分类器进行训练,以获取训练后的分类器。该训练后的分类器用于根据输入的目标待识别图像的下眼睑特征输出与该待识别图像的下眼睑的类型相匹配的类别参量。上述类别参量用于确定该目标待识别图像中的下眼睑的类型。

第二方面,本发明实施例提供了一种人脸识别装置,其可包括:图像获取模块、图像预处理模块、特征提取模块以及分类模块。

图像获取模块,用于获取目标待识别图像。

图像预处理模块,用于在上述图像获取模块获取的上述目标待识别图像中确定出下眼睑区域。并对该下眼睑区域内的下眼睑图像进行二值化处理,以获取目标图像。

特征提取模块,用于从上述图像预处理模块得到的目标图像中提取下眼睑特征参数,其中,上述下眼睑特征参数至少包括上述目标图像的黑色像素点分布特征值以及上述目标图像的重心位置中的一种。

分类模块,用于将上述特征提取模块获取的目标图像的黑色像素点分布特征值和/或上述目标图像的重心位置输入到分类器中,并根据该分类器的输出结果确定上述目标待识别图像中的下眼睑的类型。该下眼睑的类型包括卧蚕或者眼袋。

在一些可行的实施方式中,上述图像预处理模块用于:在上述目标待识别图像中定位出人脸关键点。其中,该人脸关键点为该目标待识别图像中用于确定人脸轮廓和五官轮廓的像素点。从上述人脸关键点中获取用于确定人眼轮廓的n个目标人脸关键点,其中,n为大于1的正整数。获取上述n个目标人脸关键点中各目标人脸关键点在上述目标待识别图像中的水平位置和垂直位置,并根据各目标人脸关键点在上述目标待识别图像中的水平位置和垂直位置确定下眼睑区域。

在一些可行的实施方式中,上述目标图像的黑色像素点分布特征值包括目标图像的黑色像素点个数和/或目标图像的黑色像素点混乱程度值。上述特征提取模块用于:

获取上述目标图像对应的图像矩阵,根据该图像矩阵确定上述目标图像的黑色像素点个数,并将上述目标图像的黑色像素点个数确定为上述下眼睑特征参数;

或者,获取所述目标图像对应的图像矩阵,根据该图像矩阵确定上述目标图像的重心位置,并将该目标图像的重心位置确定为上述下眼睑特征参数,上述重心位置包括上述目标图像的重心在该目标图像内的水平位置和垂直位置;

或者,获取所述目标图像对应的图像矩阵,确定上述目标图像中每个黑色像素点在该目标图像中的水平位置和垂直位置,并根据该目标图像中每个黑色像素点在该目标图像中的水平位置和垂直位置确定该目标图像的黑色像素点混乱程度值,以将该目标图像的黑色像素点混乱程度值确定为上述下眼睑特征参数。

在一些可行的实施方式中,上述目标图像的黑色像素点分布特征值包括目标图像的黑色像素点个数和/或目标图像的黑色像素点混乱程度值。上述特征提取模块还用于:

将该目标图像划分成p个子图像,其中,p为大于1的正整数。获取上述p个子图像中各个子图像所对应的图像矩阵;

根据上述p个子图像中各个子图像所对应的图像矩阵确定该p个子图像中各个子图像的黑色像素点个数,并将上述各个子图像的黑色像素点个数之和确定为目标图像的黑色像素点个数;

或者,根据上述p个子图像中各个子图像所对应的图像矩阵确定x个子图像中各个子图像的重心位置,并将上述各个子图像的重心位置确定为目标图像的重心位置,其中,上述各个子图像的重心位置包括各个子图像的重心在目标图像内的水平位置和垂直位置;

或者,获取上述各个子图像中每个黑色像素点在该目标图像中的水平位置和垂直位置,并根据上述各个子图像中每个黑色像素点在该目标图像中的水平位置和垂直位置确定上述各个子图像的黑色像素点混乱程度值,以将所述各个子图像的黑色像素点混乱程度值确定为所述目标图像的黑色像素点混乱程度值。

在一些可行的实施方式中,上述装置还包括训练模块。

上述图像获取模块,还用于获取m张用于训练的人脸图片和m个类别标签。一个上述类别标签用于标记一张用于训练的人脸照片中的下眼睑的类型。上述m张用于训练的人脸图片包括m1张下眼睑类型为卧蚕的人脸图片、m2张下眼睑类型为眼袋的人脸图片以及m3张下眼睑类型为除卧蚕及眼袋以外的普通下眼睑的人脸图片。其中,m1、m2和m3均为大于0的正整数,m为大于2的正整数。

上述特征提取模块,用于从上述m张用于训练的人脸图片中的每张用于训练的人脸图片所对应的下眼睑区域内提取下眼睑特征参数,以获取上述m张用于训练的人脸图片对应的m组下眼睑特征参数。

上述训练模块,用于从上述m张用于训练的人脸图片中的每张用于训练的人脸图片所对应的下眼睑区域内提取下眼睑特征参数,以获取上述m张用于训练的人脸图片对应的m组下眼睑特征参数。

第三方面本发明实施例提供了另一种人脸识别的装置,包括处理器、输入设备和存储器,处理器、输入设备和存储器相互连接。其中,存储器用于存储支持终端执行上述方法的计算机程序,该计算机程序包括程序指令,处理器和输入设备用于调用所述程序指令,执行上述第一方面的方法。

在本发明实施例中,首先,获取目标待识别图像,并在目标待识别图像内确定出下眼睑区域。对上述下眼睑区域内的下眼睑图像进行二值化处理,以获取目标图像。然后,从该目标图像中提取下眼睑特征参数,其中,上述下眼睑特征参数至少包括上述目标图像的黑色像素点分布特征值以及上述目标图像的重心位置中的一种。最后,将目标图像的黑色像素点分布特征值和/或上述目标图像的重心位置输入到分类器中,并根据该分类器的输出结果确定目标待识别图像中的下眼睑的类型,上述下眼睑的类型包括卧蚕或者眼袋。采用本发明可提高人脸识别技术的识别精度,提升人脸识别技术的适用性。

附图说明

为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍。显而易见的,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1是本发明实施例提供的人脸识别方法的第一实施例流程示意图;

图2是本发明实施例提供的人脸识别方法的第二实施例流程示意图;

图3是本发明实施例提供的人脸关键点定位效果示意图;

图4是本发明实施例提供的人脸识别装置的一结构示意图;

图5是本发明实施例提供的人脸识别装置的另一结构示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域的普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明的保护范围。

具体实现中,本发明实施例提供的移动终端可包括:手机、电脑(包括台式机和笔记本电脑)、平板电脑等设备。上述设备仅是举例,而非穷举,包含但不限于上述设备。

下面将结合图1至图4对本发明实施例提供的人脸识别方法和装置进行具体描述。

请参见图1,是本发明实施例提供的人脸识别方法的第一实施例流程示意图。本发明实施例所描述的人脸识别方法可用手机、电脑等具备图像处理功能的设备实现,其中,对本发明实施例以移动终端为执行主体进行描述,该实施例所描述的分类器可为已经训练后的分类器。

本发明实施例提供的人脸识别方法,包括步骤:

s101,获取目标待识别图像。

在一些可行的实施方式中,移动终端可通过其具有的摄像头等图像采集设备获取目标待识别图像。或者,当移动终端部不具备摄像头等图像采集设备时,可从外部存储设备获取目标待识别图像。其中,上述外部存储设备可包括软盘、移动硬盘、u盘等,此处不做限定。

在一些可行的实施方式中,当移动终端获取目标待识别图像后,可通过相应的人脸检测算法判断上述目标待识别图像中是否存在人脸。其中,上述人脸检测算法可包括模板匹配法、主成分分析法以及纹理分析与空间人脸灰度法等方法,此处不做限定。若判断上述目标待识别图像中存在人脸,则执行步骤s102。若判断上述目标待识别图像中不存在人脸,则重复执行步骤s101。

s102,在上述目标待识别图像被确定除下眼睑区域,并对该下眼睑区域内的下眼睑图像进行二值化处理,以获取目标图像。

在一些可行的实施方式中,移动终端在获取目标待识别图像并判断上述目标待识别图像中存在人脸后,可通过人脸关键点定位技术在上述目标待识别图像中定位出人脸关键点。其中,上述人脸关键点为上述目标待识别图像中用于确定人脸轮廓和五官轮廓的固定位置的像素点。然后,根据人脸关键点中的目标关键点在上述目标待识别图像中的水平位置信息和垂直位置信息确定下眼睑区域。其中,为方便理解,下文中以人眼轮廓关键点代替目标人脸关键点进行描述。最后,对上述下眼睑区域内的下眼睑图像进行图像二值化处理,以获取二值化后的下眼睑图像,即上述目标图像。

具体的,请一并参见图3,图3是本发明实施例提供的人脸关键点定位效果示意图。其中,各人脸关键点的标号为各关键点的代号,不具有限定作用,仅仅是为了方便描述。移动终端在获取得到目标待识别图像并判断上述目标待识别图像中存在人脸后,可将上述目标待识别图像输入到关键点定位模型中。其中,上述关键点定位模型可包括主动形状模型(activeshapemodel,asm)、主动外观模型(activeappearancemodel,aam)或snake模型等,此处不做限定。使用上述关键点定位模型对上述目标待识别图像进行特征提取和分析,并最终确定目标待识别图像中的人脸关键点的位置。例如,假设关键点定位模型为asm,且上述asm模型为训练完成后的关键点定位模型。将所述目标待识别图像输入上述asm后,上述asm模型开始进行搜索处理。即首先计算目标待识别图像中眼睛或者眼睛和嘴巴的位置参数,再做简单的尺度和旋转变换,以实现对齐人脸。然后,匹配每个人脸关键点,并计算新的位置,同时还需更新模型内的相关重要参数。重复上述操作直至上述asm模型收敛。此时关键点定位模型内确定的人脸关键点的位置即为最终求得的人脸关键点位置。具体人脸关键点定位结果可参见图3。

在上述目标待识别图像中定位出人脸关键点之后,移动终端可获取上述人脸关键点中人眼轮廓关键点在上述目标待识别图像中的水平位置信息和垂直位置信息。然后根据上述人眼轮廓关键点在上述目标待识别图像中的水平位置信息和垂直位置信息确定下眼睑区域在该目标待识别区域内的位置参数及下眼睑区域的尺寸。例如,假设下眼睑区域为矩形区域,则根据上述人眼轮廓关键点在上述目标待识别图像中的水平位置信息和垂直位置信息确定下眼睑区域的顶点位置信息、区域长度及区域宽度,并根据上述顶点位置信息、区域长度及区域宽度在上述目标待识别图像中划定出下眼睑区域,如图3中的实线所划定的阴影区域。

在确定下眼睑区域后,移动终端从上述下眼睑区域中提取出下眼睑图像。并对上述下眼睑图像进行图像二值化处理,以获取上述目标图像。其中,上述目标图像中含有黑色像素点和白色像素点。例如,假设二值化处理中的阈值为z。移动终端从上述下眼睑区域中提取出下眼睑图像后,可先对下眼睑图像进行灰度化处理,以获取灰度化的下眼睑图像。然后,扫描上述灰度化的下眼睑图像中每个像素点的灰度值,并将上述像素值与上述阈值z进行比较。所有灰度值大于或等于阈值z的像素点被判定为属于特定区域,其灰度值被重置为255。所有灰度值小于阈值z的像素点被判定为物体以外区域,其灰度值被重置为0。其中,灰度值为255的像素点为白色像素点,灰度值为0的像素点为黑色像素点。经过上述阈值处理后的灰度化的下眼睑图像即为所求的上述目标图像。

s103,从上述目标图像中提取下眼睑特征参数。

其中,上述下眼睑特征参数至少包括上述目标图像的黑色像素点分布特征值以及上述目标图像的重心位置中的一种。

在一些可行的实施方式中,上述目标图像的黑色像素点分布特征值包括目标图像的黑色像素点个数和/或目标图像的黑色像素点混乱程度值。

可选的,移动终端在获取上述目标图像后,可确定该目标图像所对应的图像矩阵。其中,上述图像矩阵的每个元素对应目标图像中的一个像素点。值为1的矩阵元素对应目标图像中灰度值为255的像素点,值为0的矩阵元素对应目标图像中灰度值为0的像素点。然后,移动终端可通过计算该图像矩阵的0阶hu矩来确定上述目标图像的黑色像素点个数。或者,移动终端可计算该图像矩阵的0阶hu矩和1阶hu矩,并根据该图像矩阵的0阶hu矩和1阶hu矩确定该目标图像的重心位置。其中,上述重心位置包括该目标图像的重心的水平位置和垂直位置。或者,移动终端可获取上述图像矩阵中所有值为1的矩阵元素所对应的元素位置,其中,上述元素位置包括元素行位置和元素列位置。并根据上述图像矩阵中所有值为1的矩阵元素所对应的元素位置确定目标图像的黑色像素点混乱程度值。

可选的,移动终端也可在确定该目标图像所对应的图像矩阵之前,可先对上述目标图像进行分块处理。例如,将上述目标图像等分成p块子图像,其中,p为大于1的正整数。或者,当上述目标图像无法实现等分处理时,也可将上述目标图像划分成j块像素值不相等的多个子图像,其中,j为大于1的正整数。在将上述目标图像划分成多个子图像后,可分别从上述多个子图像中的每个子图像内提取该子图像对应的下眼睑特征参数。从上述子图像中提取下眼睑特征参数的提取过程可参考上文描述的从上述目标图像中提取下眼睑特征参数的过程,此处便不再赘述。移动终端可将上述各个子图像的黑色像素点个数之和确定为上述目标图像的下眼睑特征参数。或者,将上述各个子图像的重心位置均确定为目标图像的重心位置,以作为上述目标图像的下眼睑特征参数。或者,将上述各个子图像的黑色像素点混乱程度值均确定为目标图像的黑色像素点混乱程度,以作为上述目标图像的下眼睑特征参数。

s104,将上述目标图像的黑色像素点分布特征值和/或上述目标图像的重心位置输入到分类器中,并根据该分类器的输出结果确定上述目标待识别图像中的下眼睑的类型。

在一些可行的实施方式中,具体的,当移动终端获取上述目标图像所对应的下眼睑特征参数后,可将上述下眼睑特征参数输入到上述训练后的分类器中。该训练后的分类器可根据其内部的分类机制确定上述下眼睑特征参数所对应的类别标签,并输出上述类别标签。其中,上述类别标签用于标定上述目标图像中的下眼睑的类型。例如,移动终端获取的目标图像的下眼睑特征参数包括黑色像素点个数t1和黑色像素点混乱程度值t2。将t1和t2输入到上述训练后的分类器中,分类器根据其内部的分类机制以及下眼睑特征参数t1和t2确定上述目标图像中的下眼睑类型属于眼袋,并输出眼袋类型对应的标签y2。其中,上述标签类型如上文所述,此处便不再赘述。

在本发明实施例中,首先,获取目标待识别图像,并在目标待识别图像内确定出下眼睑区域。对上述下眼睑区域内的下眼睑图像进行二值化处理,以获取目标图像。然后,从该目标图像中提取下眼睑特征参数,其中,上述下眼睑特征参数至少包括上述目标图像的黑色像素点分布特征值或上述目标图像的重心位置中的一种。最后,将上述目标图像的黑色像素点分布特征值或上述目标图像的重心位置中的一种或多种输入到分类器中,并根据该分类器的输出结果确定目标待识别图像中的下眼睑的类型,上述下眼睑的类型包括卧蚕或者眼袋。采用本发明可提高人脸识别技术的识别精度,提升人脸识别技术的适用性。

参见图2,是本发明实施例提供的人脸识别方法的第二实施例流程示意图。本发明实施例所述描述的人脸识别方法可用手机、电脑等具备图像处理功能的设备实现,其中,对本发明实施例以移动终端为执行主体进行描述。

本发明实施例提供的人脸识别方法,包括步骤:

s201,获取目标待识别图像。

在一些可行的实施方式中,一般情况下,本发明实施例所描述的人脸识别方法在对目标待识别图像进行识别操作之前,需对上述方法中所描述的分类器进行训练。上述训练的目的在于确定上述分类器的分类机制。其中,上述分类机制为对上述分类器的输入参数进行类别确定的方法或装置。

具体的,移动终端可获取m张用于训练的人脸图片以及m个类别标签。其中,上述类别标签用于标定上述m张用于训练的人脸图片中每张用于训练的人脸图片对应的下眼睑的类型。上述m张用于训练的人脸图片包括m1张下眼睑类型为卧蚕的人脸图片、m2张下眼睑类型为眼袋的人脸图片以及m3张下眼睑类型为除卧蚕及眼袋以外的普通下眼睑的人脸图片。其中,m1、m2和m3均为大于0的正整数,m为大于2的正整数。上述m个类别标签的类型有三种,分别为卧蚕类下眼睑所对应的类别标签y1、眼袋类下眼睑所对应的类别标签y2以及除卧蚕和眼袋以外的普通下眼睑所对应的类别标签y3。

从上述m张用于训练的人脸图片中提取出m组下眼睑特征参数,每张用于训练的人脸图片对应一组下眼睑特征参数。以m张用于训练的人脸图片中的人脸图片a为例进行说明,其所对应的类别标签设定为y1。首先,在人脸图片a中定位出人脸关键点,其中,人脸关键点为训练图片a中用于确定人脸轮廓和五官轮廓的像素点。在上述人脸关键点中提取出用于确定人脸轮廓的n个目标关键点。其中,n为大于0的正整数。为方便理解,下文以人眼轮廓关键点代替目标关键点进行描述。根据上述n个人眼轮廓关键点在训练图片a中的水平位置信息和垂直位置信息确定训练图片a中的下眼睑区域。其次,对上述训练图片a中的下眼睑区域内的下眼睑图像进行灰度化处理及二值化处理,以得到二值化后的下眼睑图像。最后,从上述二值化后的下眼睑图像中提取出下眼睑特征参数m1,其中,上述下眼睑特征参数m1至少包括:二值化后的下眼睑图像的黑色像素点个数、二值化后的下眼睑图像的黑色像素点的混乱程度值以及二值化的下眼睑图像的重点位置中的一种或多种。上述下眼睑特征参数的提取过程可参见下文描述的下眼睑特征参数提取方法。

在确定了m张图片对应的m组下眼睑特征参数以及m个类别标签之后,移动终端可将上述m组下眼睑特征参数以及m个类别标签输入到其内部的分类器中,以实现对分类器的训练,并得到训练后的分类器。其中,上述分类器可包括支持向量机(supportvectormachine,svm)、梯度增强机(gradientboostingmachine,gbm)、随机森林(randomforest)、决策树(decisiontree)等,此处不做限定。通过使用m组下眼睑特征参数以及m个类别标签对上述分类器进行训练,以使得分类器的内部参数符合其应用的场景。随着训练样本数量的增加,分类器对输入的待识别图像的识别准确度也会逐步提高。通过上述训练操作后的分类器可用于根据待识别图像中的下眼睑特征参数确定该下眼睑类型并输出与上述下眼睑类型相匹配的类别标签。

在一些可行的实施方式中,对上述分类器进行训练以获取训练后的分类器后,移动终端可通过其具有的摄像头等图像采集设备获取目标待识别图像。或者,当移动终端部不具备摄像头等图像采集设备时,可从外部存储设备获取目标待识别图像。其中,上述外部存储设备可包括软盘、移动硬盘、u盘等,此处不做限定。

在一些可行的实施方式中,当移动终端获取目标待识别图像后,可通过相应的人脸检测算法判断上述目标待识别图像中是否存在人脸。其中,上述人脸检测算法可包括模板匹配法、主成分分析法以及纹理分析与空间人脸灰度法等方法,此处不做限定。若判断上述目标待识别图像中存在人脸,则通过人眼识别算法判断目标待识别图像中的人眼是否处于睁眼的状态,若判断为是,则执行步骤s202,否则,则重复执行步骤s201。若判断上述目标待识别图像中不存在人脸,则重复执行步骤s201。

s202,在所述目标待识别图像中定位出人脸关键点,从所述人脸关键点中获取用于确定人眼轮廓的n个目标人脸关键点。

其中,为方便理解,下文中以人眼轮廓关键点代替目标人脸关键点进行描述。

具体的,移动终端在上述目标待识别图像中定位出人脸关键点的过程可参考上文第一实施例中所描述的在目标待识别图像中定位出人脸关键点的操作过程。上述人脸关键点定位结果可一并参见图3,此处便不再赘述。

s203,根据上述各个目标人脸关键点在所述目标图像中的水平位置和垂直位置确定下眼睑区域。

在一些可行的实施方式中,在上述目标待识别图像中定位出人脸关键点之后,移动终端可获取上述人脸关键点中人眼轮廓关键点在上述目标待识别图像中的水平位置参数和垂直位置参数。然后根据上述人眼轮廓关键点在上述目标待识别图像中的水平位置信息和垂直位置信息确定下眼睑区域在该目标待识别区域内的位置参数及下眼睑区域的尺寸。其中,上述下眼睑区域的形状可为矩形、椭圆、圆形等,此处不做限定。

例如,假设该下眼睑区域为矩形区域。根据人眼轮廓关键点在上述目标待识别图像中的水平位置参数和垂直位置参数确定下眼睑区域的顶点位置信息、区域长度和区域宽度。其中,上述下眼睑区域的长边为水平方向且长度较大的一边,上述下眼睑区域的宽边为垂直方向且长度较小的一边。具体的,将所有上述人眼轮廓关键点的水平位置参数中的最小值和最大值之间的差值作为上述下眼睑区域的长边的边长。将所有上述人眼轮廓关键点的垂直位置参数中的最小值和最大值之间的差值作为上述下眼睑区域的宽边的边长。将目标待识别图像中水平位置参数为所有上述人眼轮廓关键点的水平位置参数中的最小值且垂直位置参数为所有上述人眼轮廓关键点的垂直位置参数中的最大值的像素点作为上述下眼睑区域的左上角顶点。其中,也可通过人眼轮廓关键点在上述目标待识别图像中的水平位置参数和垂直位置参数确定下眼睑区域的左下角顶点、右上角顶点及右下角顶点,此处便不再赘述。根据上述下眼睑区域的区域长度、区域宽度及左上角顶点即可在上述目标待识别图像中确定除下眼睑区域。

例如,在上述图3中,为方便描述,以上述目标待识别图像的左上角顶点为原点建立直角坐标系,该直角坐标系以水平向右的方向作为x轴的正方向,以垂直向下的方向作为y轴正方向。假设移动终端获取到上述人脸关键点中标号为37-42的关键点为人眼轮廓关键点,且37号人眼轮廓关键点的x轴坐标值最小,设定为x1。40号人眼轮廓关键点的x轴坐标值最大,设定为x2。38号人眼轮廓关键点的y轴坐标值最小,设定为y1,42号人眼轮廓关键点的y轴坐标值最大,设定为y2。则上述下眼睑区域的长边的长度为x2-x1,宽边的长度为h=y2-y1,其左上角顶点的坐标为(x1,y2+h)。最后,根据上述下眼睑区域的区域长度、区域宽度及左上角顶点即可在上述目标待识别图像中确定出下眼睑区域。其中,图3中的实线所划定的阴影区域即为确定出的下眼睑区域。

s204,对上述下眼睑区域内的下眼睑图像进行二值化处理,以获取目标图像。

在一些可行的实施方式中,移动终端在目标待识别图像中确定上述下眼睑区域后,可从该下眼睑区域中提取出下眼睑图像。然后通过图像二值化算法对上述下眼睑图像进行图像二值化处理,以获取目标图像。具体的,移动终端可先对下眼睑图像进行灰度化处理以获取灰度化的下眼睑图像。然后,获取灰度化下眼睑图像中各像素点的灰度值,并根据上述各像素点的灰度值计算灰度化下眼睑图像中像素点的平均灰度值。最后,分别将灰度化下眼睑图像中各像素点的灰度值与上述平均灰度值进行比较。当上述灰度化下眼睑图像中的像素点的灰度值大于上述平均灰度值时,将该像素点的像素值重置为255,即更新为白色像素点。当上述灰度化下眼睑图像中的像素点的灰度值小于或等于上述平均灰度值时,将该像素点的像素值重置为0,即更新为黑色像素点。其中,上文所描述的图像二值化处理方法仅为图像二值化算法中的一种,而非全部,此处不做限定。经过上述图像二值化方法处理后的下眼睑图像即为所求的目标图像。

s205,获取所述目标图像对应的图像矩阵,并根据该图像矩阵确定目标图像中下眼睑特征参数。

在一些可行的实施方式中,移动终端在对上述下眼睑区域中的下眼睑图像进行二值化处理以获取目标图像后,可获取该目标图像所对应的图像矩阵,并根据该图像矩阵确定目标图像中的下眼睑特征参数。其中,上述下眼睑特征参数至少包括上述目标图像黑色像素点个数、上述目标图像的黑色像素点混乱程度值或上述目标图像重心位置中的一种或多种。其中,上述图像矩阵中的每个矩阵元素分别与目标图像中的每个像素点相对应。值为1的矩阵元素对应目标图像中的白色像素点,值为0的矩阵元素的值对应目标图像中的黑色像素点。矩阵元素在图像矩阵中的位置与像素点在目标图像中的位置相对应。

具体的,移动终端在获取上述目标图像所对应的图像矩阵后,可计算出上述图像矩阵的0阶hu矩,该图像矩阵的0阶hu矩即为所求的目标图像的黑色像素点个数。移动终端还可以计算出该图像矩阵的0阶hu矩和1阶hu矩。设定移动终端计算得到的该图像矩阵的0阶hu矩为m1,该图像矩阵的1阶hu矩为m2和m3,其中,m2为该图像矩阵的列方向1阶hu矩,m3为该图像矩阵的行方向1阶hu矩。移动终端可以m2/m1作为矩阵元素列位置参数,以m3/m1为矩阵元素行位置参数,在图像矩阵中确定出矩阵元素a,并将矩阵元素a在上述目标图像中对应的像素点确定为该目标图像的重心。移动终端还可以根据图像矩阵中值为1的元素的列位置参数和行位置参数计算黑色像素点混乱程度值。具体的,移动终端可获取图像矩阵中值为1的元素的列位置参数和行位置参数。然后计算出上述图像矩阵中值为1的元素的列位置参数的方差和上述图像矩阵中值为1的元素的行位置参数的方差。设定求取的述图像矩阵中值为1的元素的列位置参数的方差为a1,求取的述图像矩阵中值为1的元素的行位置参数的方差为b1。根据公式计算出目标图像的黑色像素点混乱程度值,其中,s即为目标图像的黑色像素点混乱程度值。其中,移动终端可根据预设的下眼睑特征参数的类别来确定所需获取的下眼睑特征参数的种类。上述下眼睑参数的种类至少包括上述目标图像黑色像素点个数、上述目标图像的黑色像素点混乱程度值或上述目标图像重心位置。移动终端可将计算得到的上述目标图像黑色像素点个数、上述目标图像的黑色像素点混乱程度值或上述目标图像重心位置中的一种或多种确定为所求的目标图像的下眼睑特征参数。

在一些可行的实施方式中,移动终端在对上述下眼睑区域中的下眼睑图像进行二值化处理以获取目标图像后,可对上述目标图像进行分块处理。例如,将上述目标图像等分成p块子图像,其中,p为大于1的正整数。或者,当上述目标图像无法实现等分处理时,也可将上述目标图像划分成j块像素值不相等的多个子图像,其中,j为大于1的正整数。在将上述目标图像划分成多个子图像后,可分别从上述多个子图像中的每个子图像内提取该子图像对应的下眼睑特征参数。从上述子图像中提取下眼睑特征参数的提取过程可参考上文描述的从上述目标图像中提取下眼睑特征参数的过程,此处便不再赘述。其中,每个子图像均对应一组下眼睑特征参数,并且该组下眼睑特征参数至少包括上述子图像黑色像素点个数、上述子图像的黑色像素点混乱程度值或上述子图像的重心位置中的一种。移动终端可将上述各个子图像的黑色像素点个数之和确定为上述目标图像的下眼睑特征参数。或者,将上述各个子图像的重心位置确定为上述目标图像的下眼睑特征参数。或者,将上述各个子图像的黑色像素点混乱程度值确定为上述目标图像的下眼睑特征参数。

s206,将上述目标图像中的下眼睑特征参数输入到分类器中,并根据该分类器的输出结果确定上述目标待识别图像中的下眼睑的类型。

在一些可行的实施方式中,具体的,当移动终端获取上述目标图像所对应的下眼睑特征参数后,可将上述下眼睑特征参数输入到上述分类器中。其中,上述分类器为经过训练后的分类器。该分类器可根据其内部的分类机制确定上述下眼睑特征参数所对应的类别标签,并输出上述类别标签。其中,上述类别标签用于标定上述目标图像中的下眼睑的类型。例如,移动终端获取的目标图像的下眼睑特征参数包括黑色像素点个数t1和黑色像素点混乱程度值t2。将t1和t2输入到训练后的分类器中,该分类器根据其内部的分类机制以及下眼睑特征参数t1和t2确定上述目标图像中的下眼睑类型属于眼袋,并输出眼袋类型对应的标签y2。其中,上述标签类型如上上文所述,此处便不再赘述。

在本发明实施例中,首先,获取目标待识别图像,并在目标待识别图像内确定出下眼睑区域。对上述下眼睑区域内的下眼睑图像进行二值化处理,以获取目标图像。然后,从该目标图像中提取下眼睑特征参数,其中,上述下眼睑特征参数至少包括上述目标图像的黑色像素点分布特征值或上述目标图像的重心位置中的一种。最后,将上述目标图像的黑色像素点分布特征值或上述目标图像的重心位置中的一种或多种输入到分类器中,并根据该分类器的输出结果确定目标待识别图像中的下眼睑的类型,上述下眼睑的类型包括卧蚕或者眼袋。采用本发明可提高人脸识别技术的识别精度,提升人脸识别技术的适用性。

参见图4,是本发明实施例提供的人脸识别装置的结一构示意图。

本发明实施例所描述的图像数据处理装置,包括:

图像获取模块10,用于获取目标待识别图像。

图像预处理模块20,用于在图像获取模块10获取的上述目标待识别图像内确定出下眼睑区域,并对该下眼睑区域内的下眼睑图像进行二值化处理,以获取目标图像。

特征提取模块30,用于从上述图像预处理模块20获取的目标图像中提取下眼睑特征参数,其中,上述下眼睑特征参数至少包括上述目标图像的黑色像素点分布特征值以及上述目标图像的重心位置中的一种。

分类模块40,用于将上述特征提取模块30提取的目标图像的黑色像素分布特征值或目标图像的重心位置中的一种或多种输入到分类器中,并根据该分类器的输出结果确定上述目标待识别图像中的下眼睑的类型。该下眼睑的类型包括卧蚕或者眼袋。

其中,上述目标图像的黑色像素点分布特征值包括目标图像的黑色像素点个数和目标图像的黑色像素点混乱程度值。

在一些可行的实施方式中,上述图像预处理模块20具体用于:

在上述目标待识别图像中定位出人脸关键点。其中,该人脸关键点为该目标待识别图像中用于确定人脸轮廓和五官轮廓的像素点。

从上述人脸关键点中获取人眼轮廓对应的n个人眼轮廓关键点,其中,n为大于1的正整数。

获取上述n个人眼轮廓关键点中各个人眼轮廓关键点在上述目标图像中的水平位置和垂直位置,并根据各个人眼轮廓关键点在上述目标图像中的水平位置和垂直位置确定下眼睑区域。

在一些可行的实施方式中,上述特征提取模块30具体用于:获取上述目标图像对应的图像矩阵,根据该图像矩阵确定上述目标图像的黑色像素点个数。

或者,获取所述目标图像对应的图像矩阵,根据该图像矩阵确定上述目标图像的重心位置。上述重心位置包括上述目标图像的重心在该目标图像内的水平位置和垂直位置。

或者,获取所述目标图像对应的图像矩阵。确定上述目标图像中每个黑色像素点在该目标图像中的水平位置和垂直位置,并根据该目标图像中每个黑色像素点在该目标图像中的水平位置和垂直位置确定该目标图像的黑色像素点混乱程度值。

在一些可行的实施方式中,上述特征提取模块还用于:

将该目标图像划分成p个子图像,其中,p为大于1的正整数。获取上述p个子图像中各个子图像所对应的图像矩阵。

根据上述p个子图像中各个子图像所对应的图像矩阵确定该p个子图像中各个子图像的黑色像素点个数。

或者,根据上述p个子图像中各个子图像所对应的图像矩阵确定p个子图像中各个子图像的重心位置。其中,重心位置包括各个子图像的重心在目标图像内的水平位置和垂直位置。

或者,获取上述各个子图像中每个黑色像素点在该目标图像中的水平位置和垂直位置。并根据上述各个子图像中每个黑色像素点在该目标图像中的水平位置和垂直位置确定上述各个子图像的黑色像素点混乱程度值。

在一些可行的实施方式中,上述装置还包括训练模块50。

上述图像获取模块10,还用于获取m张训练图片。上述m张训练图片包括m1张下眼睑类型为卧蚕的人脸图片、m2张下眼睑类型为眼袋的人脸图片以及m3张下眼睑类型为除卧蚕及眼袋以外的普通下眼睑的人脸图片。其中,m1、m2和m3均为大于0的正整数,m为大于2的正整数。

上述特征提取模块30,还用于从上述图像获取模块10获取的m张训练图片中的每张训练图片所对应的下眼睑区域内提取下眼睑特征参数,以获取上述m张训练图片对应的m组下眼睑特征参数及m个类别标签。其中,上述类别标签用于确定每张训练图片中的下眼睑的类型。

上述训练模块50,用于使用上述特征提取模块30获取的m组下眼睑特征参数和m个类别标签对上述分类器进行训练,以获取训练后的分类器。该训练后的分类器用于根据输入的下眼睑特征参数确定下眼睑类型并输出与上述下眼睑类型相匹配的类别标签。

在一些可行的实施方式中,一般情况下,本发明实施例所描述的人脸识别装置在对目标待识别图像进行识别操作之前,需对上述装置中所描述的分类器进行训练。上述训练的目的在于确定上述分类器的分类机制。其中,上述分类机制为对上述分类器的输入参数进行类别确定的方法或装置。

具体的,上述图像获取模块10可获取m张用于训练的人脸图片以及m个类别标签。其中,上述类别标签用于标定上述m张用于训练的人脸图片内每张人脸图片对应的下眼睑的类型。上述m张用于训练的人脸图片包括m1张下眼睑类型为卧蚕的人脸图片、m2张下眼睑类型为眼袋的人脸图片以及m3张下眼睑类型为除卧蚕及眼袋以外的普通下眼睑的人脸图片。其中,m1、m2和m3均为大于0的正整数,m为大于2的正整数。上述m个类别标签的类型有三种,分别为卧蚕类下眼睑所对应的类别标签y1、眼袋类下眼睑所对应的类别标签y2以及除卧蚕及眼袋以外的普通下眼睑所对应的类别标签y3。

上述特征提取模块30可从上述图像获取模块10获取的m张用于训练的人脸图片中提取出m组下眼睑特征参数,每张人脸图片对应一组下眼睑特征参数。以m张用于训练的人脸图片中的人脸图片a为例进行说明,其所对应的类别标签设定为y1。首先,上述图像预处理模块20可在上述图像获取模块10获取的训练图片a中定位出人脸关键点,其中,人脸关键点为训练图片a中用于确定人脸轮廓和五官轮廓的像素点。在上述人脸关键点中确定除人脸轮廓所对应的n个人眼轮廓关键点,其中,n为大于0的正整数。上述图像预处理模块20根据上述n个人眼关键点在训练图片a中的水平位置信息和垂直位置信息确定训练图片a中的下眼睑区域。然后,上述图像预处理模块20对上述训练图片a中的下眼睑区域内的下眼睑图像进行灰度化处理及二值化处理,以得到二值化后的下眼睑图像。最后,上述特征提取模块30从上述图像预处理模块20得到的二值化后的下眼睑图像中提取出下眼睑特征参数m1,其中,上述下眼睑特征参数m1至少包括:二值化后的下眼睑图像的黑色像素点个数、二值化后的下眼睑图像的黑色像素点的混乱程度值以及二值化的下眼睑图像的重点位置中的一种或多种。上述下眼睑特征参数的提取过程可参见下文描述的下眼睑特征参数提取方法,此处便不再赘述。

在确定了m张图片对应的m组下眼睑特征参数以及m个类别标签之后,上述训练模块50可将上述特征提取模块30获取的上述m组下眼睑特征参数以及m个类别标签输入到分类模块40内部的分类器中,以实现对分类器的训练,并得到训练后的分类器。其中,上述分类器可包括支持向量机(supportvectormachine,svm)、梯度增强机(gradientboostingmachine,gbm)、随机森林(randomforest)、决策树(decisiontree)等,此处不做限定。通过使用m组下眼睑特征参数以及m个类别标签对上述分类器进行训练,以使得分类器的内部参数符合其应用的场景。使得上述分类器的分类机制得到进一步的优化,进而提高分类器对输入的目标待识别图像的识别准确度。随着训练样本数量的增加,分类器对输入的目标待识别图像的识别准确度也会逐步提高。通过上述训练操作后的分类器可用于根据目标待识别图像中的下眼睑特征参数确定该下眼睑类型并输出与上述下眼睑类型相匹配的类别标签。

在一些可行的实施方式中,上述训练模块50对上述分类器进行训练以获取训练后的分类器后,上述图像获取模块10可通过摄像头等图像采集设备获取目标待识别图像。或者,当图像获取模块10不具备摄像头等图像采集设备时,可从外部存储设备获取目标待识别图像。其中,上述外部存储设备可包括软盘、移动硬盘、u盘等,此处不做限定。

在一些可行的实施方式中,当上述图像获取模块10获取目标待识别图像后,可通过相应的人脸检测算法判断上述目标待识别图像中是否存在人脸。其中,上述人脸检测算法可包括模板匹配法、主成分分析法以及纹理分析与空间人脸灰度法等方法,此处不做限定。若上述图像获取模块10判断上述目标待识别图像中存在人脸,则通过人眼识别算法判断目标待识别图像中的人眼是否处于睁眼的状态,若判断为是,则将该目标待识别图像输入到图像预处理模块20中,否则,重新获取新的目标待识别图像。若判断上述目标待识别图像中不存在人脸,则重新获取新的目标待识别图像。

当上述图像预处理模块20接收到上述图像获取模块10获取的目标待识别图像后,可将上述目标待识别图像输入到关键点定位模型中。其中,上述关键点定位模型可包括主动形状模型(activeshapemodel,asm)、主动外观模型(activeappearancemodel,aam)或snake模型等,此处不做限定。使用上述关键点定位模型对上述目标待识别图像进行特征提取和分析,并最终确定目标待识别图像中的人脸关键点的位置。具体的,图像预处理模块20在上述目标待识别图像中定位出人脸关键点的过程可参考上文第一实施例中所描述的在目标待识别图像中定位出人脸关键点的操作过程。上述人脸关键点定位结果可一并参见图3,此处便不再赘述。

上述图像预处理模块20可获取上述人脸关键点中人眼轮廓关键点在上述图像获取模块10获取的上述目标待识别图像中的水平位置参数和垂直位置参数。然后根据上述人眼轮廓关键点在上述目标待识别图像中的水平位置信息和垂直位置信息确定下眼睑区域在该目标待识别区域内的位置参数及下眼睑去的尺寸。其中,上述下眼睑区域的形状可为矩形。椭圆、圆形等,此处不做限定。具体的,当预设的下眼睑区域的形状为矩形时,上述图像预处理模块20可将所有上述人眼轮廓关键点的水平位置参数中的最小值和最大值之间的差值作为上述下眼睑区域的长边的边长。将所有上述人眼轮廓关键点的垂直位置参数中的最小值和最大值之间的差值作为上述下眼睑区域的宽边的边长。其中,上述下眼睑区域的长边为水平方向且长度较大的一边,上述下眼睑区域的宽边为垂直方向且长度较小的一边。将目标待识别图像中水平位置参数为所有上述人眼轮廓关键点的水平位置参数中的最小值且垂直位置参数为所有上述人眼轮廓关键点的垂直位置参数中的最大值的像素点作为上述下眼睑区域的左上角顶点。其中,也可通过人眼轮廓关键点在上述目标待识别图像中的水平位置参数和垂直位置参数确定下眼睑区域的左下角顶点、右上角顶点及右下角顶点,此处便不再赘述。图像预处理模块20可根据上述下眼睑区域的区域长度、区域宽度及左上角顶点即可在上述目标待识别图像中确定出下眼睑区域。

上述图像预处理模块20在目标待识别图像中确定上述下眼睑区域后,可从该下眼睑区域中提取出下眼睑图像。然后通过图像二值化算法对上述下眼睑图像进行图像二值化处理,以获取目标图像。具体的,移动终端可先对下眼睑图像进行灰度化处理以获取灰度化的下眼睑图像。然后,获取灰度化下眼睑图像中各像素点的灰度值,并根据上述各像素点的灰度值计算灰度化下眼睑图像中像素点的平均灰度值。最后,分别将灰度化下眼睑图像中各像素点的灰度值与上述平均灰度值进行比较。当上述灰度化下眼睑图像中的像素点的灰度值大于上述平均灰度值时,将该像素点的像素值重置为255,即更新为白色像素点。当上述灰度化下眼睑图像中的像素点的灰度值小于或等于上述平均灰度值时,将该像素点的像素值重置为0,即更新为黑色像素点。其中,上文所描述的图像二值化处理方法仅为图像二值化算法中的一种,而非全部,此处不做限定。经过上述图像二值化方法处理后的下眼睑图像即为所求的目标图像。

在一些可行的实施方式中,上述特征提取单元30获取上述图像预处理单元20获取的目标图像所对应的图像矩阵,并计算出上述图像矩阵的0阶hu矩,该图像矩阵的0阶hu矩即为所求的目标图像的黑色像素点个数。上述特征提取单元30还可以计算出该图像矩阵的0阶hu矩和1阶hu矩。设定特征提取单元30计算得到的该图像矩阵的0阶hu矩为m1,该图像矩阵的1阶hu矩为m2和m3。其中,m2为该图像矩阵的列方向1阶hu矩,m3为该图像矩阵的行方向1阶hu矩。上述特征提取单元30可以以m2/m1作为矩阵元素列位置参数,以m3/m1为矩阵元素行位置参数,在图像矩阵中确定出矩阵元素a,并将矩阵元素a在上述目标图像中对应的像素点确定为该目标图像的重心。特征提取单元30还可以根据图像矩阵中值为1的元素的列位置参数和行位置参数计算黑色像素点混乱程度值。具体的,述特征提取单元30可获取图像矩阵中值为1的元素的列位置参数和行位置参数。然后计算出上述图像矩阵中值为1的元素的列位置参数的方差和上述图像矩阵中值为1的元素的行位置参数的方差。设定求取的述图像矩阵中值为1的元素的列位置参数的方差为a1,求取的述图像矩阵中值为1的元素的行位置参数的方差为b1。根据公式计算出目标图像的黑色像素点混乱程度值,其中,s即为目标图像的黑色像素点混乱程度值。其中,述特征提取单元30可根据预设的下眼睑特征参数的类别来确定所需获取的下眼睑特征参数的种类。述特征提取单元30可将计算得到的上述目标图像黑色像素点个数、上述目标图像的黑色像素点混乱程度值或上述目标图像重心位置中的一种或多种确定为所求的目标图像的下眼睑特征参数。

在一些可行的实施方式中,特征提取单元30可对上述图像预处理单元获取的上述目标图像进行分块处理。例如,将上述目标图像等分成p块子图像,其中,p为大于1的正整数。或者,当上述目标图像无法实现等分处理时,也可将上述目标图像划分成j块像素值不相等的多个子图像,其中,j为大于1的正整数。在将上述目标图像划分成多个子图像后,特征提取单元30可分别从上述多个子图像中的每个子图像内提取该子图像对应的下眼睑特征参数。从上述子图像中提取下眼睑特征参数的提取过程可参考上文描述的述特征提取单元30从上述目标图像中提取下眼睑特征参数的过程,此处便不再赘述。其中,每个子图像均对应一组下眼睑特征参数,并且该组下眼睑特征参数至少包括上述子图像黑色像素点个数、上述子图像的黑色像素点混乱程度值或上述子图像的重心位置中的一种。特征提取单元30可将上述各个子图像的黑色像素点个数之和确定为上述目标图像的下眼睑特征参数。或者,将上述各个子图像的重心位置确定为上述目标图像的下眼睑特征参数。或者,将上述各个子图像的黑色像素点混乱程度值确定为上述目标图像的下眼睑特征参数。

当上述特征提取模块30获取上述目标图像的下眼睑特征参数后,可将上述下眼睑特征参数输入至上述分类模块40中。上述分类模块40可根据其内部的分类机制确定上述下眼睑特征参数所对应的类别标签,并输出上述类别标签。其中,上述类别标签用于标定上述目标图像中的下眼睑的类型。例如,特征提取模块30获取的目标图像的下眼睑特征参数包括黑色像素点个数t1和黑色像素点混乱程度值t2。将t1和t2输入到分类模块40中,分类模块40根据其内部的分类机制以及下眼睑特征参数t1和t2确定上述目标图像中的下眼睑类型属于眼袋,并输出眼袋类型对应的标签y2。其中,上述标签类型如上文所述,此处便不再赘述。

在本发明实施例中,首先,获取目标待识别图像,并在目标待识别图像内确定出下眼睑区域。对上述下眼睑区域内的下眼睑图像进行二值化处理,以获取目标图像。然后,从该目标图像中提取下眼睑特征参数,其中,上述下眼睑特征参数至少包括上述目标图像的黑色像素点分布特征值或上述目标图像的重心位置中的一种。最后,将上述目标图像的黑色像素点分布特征值或上述目标图像的重心位置中的一种或多种输入到分类器中,并根据该分类器的输出结果确定目标待识别图像中的下眼睑的类型,上述下眼睑的类型包括卧蚕或者眼袋。采用本发明可提高人脸识别技术的识别精度,提升人脸识别技术的适用性。

请参见图5,是本发明实施例提供的人脸识别装置的另一结构示意图。如图5所示,本实施例中的装置可以包括:一个或多个输入设备100、存储器200、一个或多个处理器300。上述处理器300、输入设备100、存储器200通过总线400连接。存储器200用于存储计算机程序,上述计算机程序包括程序指令,处理器300用于执行存储器200存储的程序指令。其中,输入设备100被配置用于调用上述程序指令执行获取目标待识别图像等步骤。处理器300被配置用于调用上述程序指令执行:在目标待识别图像内确定出下眼睑区域,对上述下眼睑区域内的下眼睑图像进行二值化处理,以获取目标图像。从该目标图像中提取下眼睑特征参数,其中,上述下眼睑特征参数至少包括上述目标图像的黑色像素点分布特征值或上述目标图像的重心位置中的一种。将目标图像的黑色像素点分布特征值和/或上述目标图像的重心位置输入到分类器中,并根据该分类器的输出结果确定目标待识别图像中的下眼睑的类型,上述下眼睑的类型包括卧蚕或者眼袋。

应当理解,在本发明实施例中,所称处理器300可以是中央处理单元(centralprocessingunit,cpu),该处理器还可以是其他通用处理器、数字信号处理器(digitalsignalprocessor,dsp)、专用集成电路(applicationspecificintegratedcircuit,asic)、现成可编程门阵列(field-programmablegatearray,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。

输入设备100可以包括摄像头、数据通信接口等。

该存储器200可以包括只读存储器和随机存取存储器,并向处理器300提供指令和数据。存储器200的一部分还可以包括非易失性随机存取存储器。例如,存储器200还可以存储设备类型的信息。

具体实现中,本发明实施例中所描述的输入设备100、处理器300可执行本发明实施例提供的人脸识别方法的第一实施例和第二实施例中所描述的实现方式,也可执行本发明实施例所描述的装置的实现方式,在此不再赘述。

本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(read-onlymemory,rom)或随机存储记忆体(randomaccessmemory,ram)等。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1