基于人脸识别的活体检测方法和装置的制造方法

文档序号:9249469阅读:350来源:国知局
基于人脸识别的活体检测方法和装置的制造方法
【技术领域】
[0001] 本发明设及人脸识别领域,特别设及一种基于人脸识别的活体检测方法和装置。
【背景技术】
[0002] 人脸识别作为近年来兴起的一种身份认证技术,目前取得了极大发展,并在公共 安防、考勤口禁、信用卡识别等领域获得了日益广泛的应用。然而,由于传统的人脸识别技 术易受到各种虚假人脸,例如照片、视频、甚至3D模型的攻击。而一旦人脸攻击成功,则可 能给用户造成重大损失。因此,随着技术的发展和信息安全的需求,在人脸识别系统中加入 活体检测越来越受到更多的关注。
[0003] 与真实的人脸相比,照片中的人脸是平面的,并且存在二次获取带来的质量损失、 模糊等缺陷。视频中的人脸则由于视频播放器的缘故而存在LCD反光等现象。3D模型构成 的人脸的运动是刚性的运动。根据W上利用照片、视频和3D进行人脸攻击的特点,目前用 于人脸识别中的活体检测方法主要有=类;基于运动的方法、基于纹理的方法和基于融合 的方法。
[0004] 其中,基于运动的方法主要是分析图像帖序列的运动趋势,例如通过光流法估计 出人脸不同区域的运动趋势来区分真实人脸和照片攻击。对于利用照片进行人脸攻击如 前所述由于存在二次获取过程中带来的质量下降、纹理模糊等变化,因此,基于纹理的方法 主要是通过找出单帖真实人脸和欺骗人脸的显著性区分特征进行活体判断,例如提取人脸 图像的多层LBP(LocalBinary化ttern,局部二值模式)特征并使用非线性支持向量机 (SVM,SuppcxrtVectorMachine)进行二分类,W区别真实人脸或欺骗人脸。基于融合的方 法则融合了上述基于运动的方法和基于纹理的方法,通过上述两种方法的优势互补来抵御 各种形式的人脸攻击。
[0005] 此外,由于注意力转移的过程具有不确定性,视线行为是一种难W被他人通过摄 像头等设备获取的生物信息。此外,视线作为一种生物计量信息,具有不需要用户与设备之 间进行身体接触的优势。有鉴于此,视线可W作为一种理想的生物行为而用于人脸识别中 的活体检测,从而防止欺骗人脸的攻击。已有的利用视线进行活体检测的方法包括,例如, 通过跟踪用户的视线并且用信息滴来判定是否是真实人脸。信息滴值越大,视线运动的不 确定性越大,更可能是真实人脸,反之则是欺骗人脸。
[0006] 然而,在已有的利用视线进行活体检测的方法中,存在检测设备复杂,例如需要采 用红外摄像头或音频输入设备等,W及仅对照片攻击有效,对于视线变化的视频攻击没有 防御能力等该样或那样的缺陷。

【发明内容】

[0007] 因此,有必要提出一种检测精度高且检测设备简单,并能同时抵御照片攻击,包括 静止或扭曲照片,W及视频攻击的活体检测方法和装置。本发明即为在W上考虑的基础上, 提出一种基于人脸识别的活体检测方法和装置。
[000引一方面,根据本发明的活体检测方法,包括;身份认证步骤,对由N个待测用户构 成的待测人群中的每个所述待测用户进行人脸识别,W对待测用户进行身份认证;及训练 视线特征提取步骤,设置n个训练视点构成训练视点序列,获得每个所述待测用户注视每 一个该训练视点时的H帖训练眼睛图像,并提取其视线特征作为训练视线特征;待测视线 特征提取步骤,设置M个系统随机点阳1,…,QJ,使待测用户注视所述系统随机点并获得注 视时的待测眼睛图像,并进一步提取待测视线特征;初步视点位置估计步骤,对于通过了上 述身份认证的待测用户,利用其上述训练视点序列及训练视线特征,W及提取到的所述待 测视线特征,采用自适应线性回归算法对该待测用户的视点位置进行估计,得到初步视点 位置估计值;增量的视点位置估计步骤,如果所述初步视点位置估计值所表征视点位置趋 近其对应的系统随机点,则将该对应的系统随机点增加到所述训练视点序列中,构成新的 视点序列,进一步对待测用户注视系统随机点时的视点位置进行估计,W得到增量的视点 位置估计值;W及活体判断步骤,利用化散度计算所述增量的视点位置估计值所表征的视 点位置及上述系统随机点之间的距离,根据计算出的所述距离进行活体判断。
[0009] 考虑到眼睛图像采集过程中出现的图像捕获距离的变化和/或微小头部运动,会 带来的所捕获的眼睛图像的差异。为减少该种差异带来的图像噪声,提高估计结果的精度, 优选对眼睛图像进行对齐等预处理。本发明所述的方法,其中,训练视线特征提取步骤还包 括眼睛图像预处理的步骤,用于对所述训练眼睛图像进行内外眼角的检测,并根据所检测 到的眼角位置进行眼睛区域的对齐。
[0010] 优选地,所述训练视线特征提取步骤具体包括;将获取的所述训练眼睛图像均匀 划分为若干个子区域;对每一个子区域计算像素的灰度值的和,并归一化处理,每个训练视 点位置对应的所述训练视线特征。
[0011] 替换地,所述方法中,还可采用局部二值模式LBP直方图法获取视线特征,即,所 述训练视线特征提取步骤具体包括:将获取的所述训练眼睛图像均匀划分为若干个子区 域;对每一个子区域提取局部二值模式LBP直方图,将所有直方图进行串联,得到每个训练 视点位置对应的所述训练视线特征。
[0012] 本发明所述方法中,具体地,利用如下公式(1)计算针对每个待测用户注视每个 训练视点时获得的每一训练眼睛图像的所述训练视线特征:
[001 引 (1)
[0014] 其中,rXc为所述训练眼睛图像所划分的所述子区域的数量;Sj为每一个子区域 的像素的灰度值的和,j= 1,2,…,rXc。
[001引另外,同样地,所述待测视线特征提取步骤中,利用获得的待测眼睛图像,采用上 述公式(1)提取待测视线特征。
[0016] 进一步地,所述初步视点位置估计步骤中,采用如下公式(2)来估计所述待测用 户的初步视点位置估计值參=
[0017]
...... (2)
[00化]其中,w= [Wi…w。' ]T为自适应线性回归算法的系数向量,F= [/;V..,/;/]eirx"' 和戶='分别表示在所述身份认证步骤中通过了上述身份认证的待测用户 的所有训练视线特征的集及其训练视点序列,其中,R是实数空间,n' =HXn是通过了所 述身份认证的待测用户的眼睛图像的帖数,m=rXc是每一帖图像的特征维数;/为待测 用户注视某一系统随机点时的所提取的待测视线特征。另外,已知地,e是容忍度参数,用 来平衡模型的稀疏程度和线性组合的准确度。可W人工设定,比如选择e=0.01,也可通 过实验方法获得。e越大,模型越稀疏,但是线性组合准确度越差;反之,线性组合准确度 越高,然而模型会变得越复杂。
[0019] 进一步地,如果满足||参-all, <C,则随机点Qi可W添加到上述训练视点序列P中 形成新的视点序列P=[尸(?,.],同时对应的视线特征为F=[尸/_!。并且所述增量的视点位 置估计步骤中,采用如下公式(3)来获得所述待测用户的增量的视点位置估计值P=P。.'
[0020]
...... (3)
[0021] 本发明所述的方法,活体判断步骤中,具体用如下公式(4)计算化散度:
[002引
......(4)
[002引其中,其中II.IIp是向量的P-范数,该里可W取P= 1,2, 0°。
[0024] 可选地,所述活体判断步骤中,还可利用获得增量的视点位置估计值的X轴和y轴 坐标的平均化散度来计算所述距离,即用如下公式(5)来计算平均化散度:
[0025]
[0026] 其中系统随机点序列,知=fc,说r!为利用公式饼估计出 的待测用户的增量的视点位置估计值,托W二妃,扔二权U,屯=hx,山,屯二
[0027] 根据本发明的另一方面,所述基于人脸识别的活体检测装置,包括:图像采集单 元,包括用于分别显示n训练视点构成训练视点序列和M个系统随机点咕,…,QmKW及所 采集到图像的屏幕,及捕获待测用户的人脸图像及眼睛图像的图像捕获单元;身份认证单 元,用于对图像采集单元捕获的人脸图像进行人脸识别,W对由N个待测用户构成的待测 人群中的每个所述待测用户进行身份认证;视线特征提取单元,用于对当待测用户注分别 注视训练视点和系统随机点时图像采集单元所捕获的H帖训练眼睛图像和待测眼睛图像 进行待测用户的视线特征的提取,分别获得训练视线特征和待测视线特征;初步视点位置 估计单元,对于通过了上述身份认证的待测用户,利用其上述训练视点序列及训练视线特 征,W及所述待测视线特征,采用自适应线性回归算法对该待测用户的视点位置进行估计, 得到初步视点位置估计值;增量的视点位置估计单元,如果所述初步视点位置估计值所表 征视点位置趋近其对应的系统随机点,则将该对应的系统随机点增加到所述训练视点序列 中,构成新的视点序列,进一步对待测用户注视系统随机点时的视点位置进行估计,W得到 增量的视点位置估计值;W及活体判断单元,利用KL散度计算所述增量的视点位置估计值 所表征的视点位置及上述系统随机点之间的距离,根据计算出的所述距离进行活体判断。 [002引通过利用视线行为作为检测对象及判断基准,本发明所述的方法和装置能同时抵 御照片和视频攻击。且由于视点位置估计中参考了待测用户的身份认证结果,降低了数据 运算量及不同用户数据之间的干扰。同时,本发明所述方法和装置由于采用增量学习的自 适应线性回归算法进行视点位置估计,使得视点位置估计结果更加精确,并进而使活体判 断结果更加可靠。
[0029] W下结合【具体实施方式】对发明的方法和装置进行详细说明,本发明的有益效果将 因此进一步明确。
【附图说明】
[0030] 为了更清楚地说明本发明实施例的技术方案,下面对实施例中所需使用的附图进 行简单介绍。
[0031] 图1为本发明一优选
当前第1页1 2 3 4 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1