活体检测方法及装置的制造方法_3

文档序号:9667760阅读:来源:国知局
多帧步骤S2中检测到的人脸图像,判断所选取的每一帧图像是否为活体。如果是,则执行步骤S4,否则判断为非活体并且判断结束。需要说明的是,如果选取多帧步骤S2中检测到的人脸图像,则所述多帧人脸图像中至少一帧判断为活体时,则判断为活体。
[0080]在本发明中,活体判断单元4利用正面或侧面人脸图像检测是否为活体的具体步骤如下:
[0081]首先通过训练获得活体判断分类器。通过预先采集或者收集一批不同背景和不同光照的真实人脸、低分辨率打印照片、高分辨率打印照片、视频播放和3D人脸模型等样本,根据多分类支持向量机机制,进行支持向量的训练,获取基于单帧人脸图像的活体判断分类器。其中多分类机制可以是一对一的训练,也可以是一对多的训练。以一对一为例,针对以上5种形式的人脸图像,两两之间进行二分类训练,得到10个二分类器。
[0082]然后利用活体判断分类器进行活体判断。将待测的正面或侧面人脸图像输入活体判断分类器,利用10个二分类器分别进行投票,选择投票结果中出现频率最高的投票结果作为最终的检测结果。例如,将以上5中形式的人脸图像中的任意一张人脸图像输入该活体判断分类器之后,10个二分类器分别对该图像进行投票,例如,其中的低分辨率打印照片与高分辨率打印照片的二分类器对该图像投票,结果为其中的高分辨率打印照片。则经过10个二分类器的分别投票之后,出现的投票结果为例如5个真实人脸,3个3D人脸模型,2个高分辨率打印照片等,则可根据该投票结果判断该图像为真实人脸图像。若无出现频率最高的投票结果,则,重新进行一次投票,直至出现该频率最高的投票结果为止。
[0083]步骤S4:对判断为活体的人脸图像进行用户身份确认。
[0084]利用用户身份确认单元5,从被活体判断单元4判断为活体人脸图像的图像中,挑选一帧或多帧与集合建立单元2的匹配人脸图像集合中的用户人脸图像进行匹配,若匹配成功,则可以确认当前用户身份。
[0085]需要指出的是,现有的任何有效的人脸识别方法均可用于本发明的用户身份确认步骤,例如基于贝叶斯的人脸识别方法,基于线性判别分析的人脸识别方法,基于深度卷积网络的人脸识别方法等。
[0086]本发明采用基于主成分分析的人脸识别方法,具体方法如下:
[0087]首先,建立人脸图像训练集,获取所述人脸图像训练集的降维人脸特征。具体步骤如下:
[0088](1)收集一批人脸图像作为训练图像,构成人脸图像训练集,提取训练集中的训练图像的人脸特征作为原始人脸特征,例如LBP、Gabor特征等。
[0089](2)计算训练集中所述原始人脸特征的协方差矩阵得到特征值和特征向量;取其中前K个最大特征值对应的特征向量构造训练集降维矩阵。其中,K的选择按照如下规则进行:首先将所有特征值按照从大到小的顺序排列,然后计算前C个特征值的和,如果前C个特征值的和与所有特征值和的比值为1^(通常取90%、95%、99%等),则令1( = Co
[0090]最后将训练集中所有训练图像的原始人脸特征值投影到所述训练集降维矩阵上得到人脸训练集中所有训练图像的降维人脸特征。
[0091]进一步,获取待测活体人脸图像的降维人脸特征。
[0092]对于所获得的一帧待测活体人脸图像,首先提取其人脸特征作为待测活体人脸图像原始特征值,并将该待测原始特征值投影到上述训练集降维矩阵上得到待测活体人脸图像的降维人脸特征。
[0093]再进一步,计算待测活体人脸图像的降维人脸特征与所述训练集中所有训练图像的降维人脸特征之间的距离,例如欧式距离、马氏距离等,将所述训练集中距离最小的训练图像作为待测图像的人脸识别结果。
[0094]步骤S5:根据确认的用户身份,匹配牙齿图像。
[0095]在确认用户身份之后,牙齿图像匹配单元6发出要求用户露出牙齿的指令,并且利用图像采集单元1获取当前拍摄的牙齿图像。牙齿图像匹配单元6将拍摄的牙齿照片与集合建立单元2的牙齿图像集合中该用户的牙齿图像进行匹配,如果匹配成功,则继续进行步骤S6 ;否则判断为非活体,并且判断结束。
[0096]本发明采用的牙齿图像匹配的方法,包括特征提取和关键点匹配两个阶段。根据本优选实施例的牙齿图像匹配单元采用SIFT特征,在特征提取阶段,分别对当前采集的牙齿图像和集合建立单元2中的该用户的牙齿图像进行关键点提取;而后在关键点匹配阶段,对分别提取的当前牙齿图像关键点与集合建立单元中的该用户的牙齿图像关键点进行匹配。如果成功匹配的关键点个数不小于N(N为预设值),则匹配成功,否则匹配失败。
[0097]下面描述采用SIFT特征通过分别读入当前采集的牙齿图像和集合建立单元2中该用户的牙齿图像,来进行牙齿匹配的具体步骤:
[0098]①将uint8类型图像转换成double类型图像,并使其灰度值归一化到[0,1]之间;
[0099]②利用高斯滤波和线性插值,使图像放大一倍;
[0100]③对于放大后的图像,产生高斯金字塔和高斯差分金字塔图像序列,其中,高斯金字塔一般选择4阶,每阶选择5层。
[0101]④检测高斯差分金字塔尺度空间极值点,而后去除低对比度和边缘不稳定的特征点。由于如果图像本身太大,特征点太多,会导致内存溢出,所以需要选取合适的阈值以减少特征点的个数,例如,可以选取较小的曲率阈值或选取较大的对比度阈值;
[0102]⑤计算所选取的特征点的幅值和方向序列;
[0103]⑥在选取的特征点中寻找关键点,建立关键点的梯度方向直方图,从而得到每个关键点的位置、尺度和方向;
[0104]⑦产生关键点描述子序列,其中,当前采集的牙齿图像的关键点称为当前关键点,集合建立单元2中该用户的牙齿图像称为目标关键点,对应地,产生的关键点描述子序列分别称为当前关键点描述子序列和目标关键点描述子序列;
[0105]⑧根据产生的当前关键点描述子序列和目标关键点描述子序列,基于欧氏距离得到初始关键点对,该关键点对由目标关键点与距离其欧式距离最近的当前关键点构成。具体地,在当前关键点描述子序列中选取与目标关键点欧式距离最近的前两个关键点,其中,欧式距离中的最近的欧式距离与次近的欧式距离之间的比值设定为最近点的相似度度量,如果相似度度量小于某个比例阈值(该阈值为预设值),则接受这一对关键点对作为初始关键点对;
[0106]⑨用hough变换对初始关键点对进行再一次计算,得到最终关键点对;
[0107]⑩用RANSAC算法对最终关键点对进行精确匹配,剔除错误的匹配点,得到最终匹配点。
[0108]如果最终匹配点的对数不小于N(N为预设值),则两幅牙齿图像匹配,否则匹配失败。
[0109]步骤S6:对牙齿图像匹配的用户进行随机动作匹配。
[0110]随机动作指定单元从集合建立单元2的面部动作指令集合中发出一个或多个指令,并提示用户。
[0111]发出的指令来自集合建立单元2的面部动作指令集合,其包括但不限于转头、捂眼睛、捂嘴巴、吐舌头、张嘴、摸耳朵等。随机动作指定单元随机选择每次指令的内容,其中包含一个或多个指令,并且随机选择指令的实施次数,每次指令可以被要求实施一次或多次。
[0112]利用动作分类器检测用户是否根据指令在规定时间内完成动作,如果完成,则判断为活体;否则为非活体,判断结束,输出最终判断结果。
[0113]本发明中,动作分类器采用基于支持向量机二分类机制的动作检测模型。首先选取系统已预先设计的与当前随机动作指令相对应的二分类器,随后根据当前随机动作指令,利用V1la and Jones方法截取用户面部对应动作位置的区域,并将该区域送入动作分类器,得到分类结果,具体过程以如下为例。
[0114]例如,系统随机发出的吐舌头指令。
[0115]首先建立吐舌头/非吐舌头二分类器,具体地,收集一批吐舌头和不吐舌头的人脸图像;用V1la and Jones方法定位嘴巴关键点,并根据左右嘴角点截取嘴巴区域;根据支持向量机机制训练吐舌头/非吐舌头的二分类器。
[0116]然后,利用吐舌头/非吐舌头二分类器检测用户是否执行了吐舌头的命令。具体地,当系统发出吐舌头指令后,收集有限时间内的人脸图像序列,同样利用V1la andJones方法截取嘴巴区域,并将这些
当前第3页1 2 3 4 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1