活体检测方法和活体检测系统的制作方法_3

文档序号:9433065阅读:来源:国知局
所述特征信号判断单元222判断所述 眼睛注视方向序列与所述位置变化的目标的位置变化序列是否对应,如果所述眼睛注视方 向序列对应于所述位置变化的目标的位置变化序列,则确定所述待检测对象为活体。在该 实施例的另一个示例中,所述特征信号判断单元222判断所述眼睛注视方向序列的变化度 是否大于第三预定阈值,如果所述变化度大于所述第三预定阈值,则确定所述待检测对象 为活体。
[0052] 图3是示意性图示根据本发明实施例的活体检测过程的示意图。如图3所示,所述 活体检测系统20用于对于所述待检测对象30执行活体验证。在本发明的一个实施例中, 所述活体检测系统20提示所述待检测对象30预定内容41的显示,所述预定内容41例如 具有随机生成的运动轨迹的小球。在所述预定内容41的显示期间,所述活体检测系统20 捕获所述待检测对象30的图像。如果所述待检测对象30为活体,则其眼部31将跟随预定 内容41中目标位置变化而运动。在本发明的另一个实施例中,所述活体检测系统20可以 在不显示所述预定内容41的情况下,直接采集用户正常操作流程期间的视频时,如果所述 待检测对象30为活体,则其眼部31同样将在正常操作流程期间存在运动。
[0053] 以上,参照图1到图3概述了根据本发明实施例的活体检测方法和活体检测系统。 以下,将参照图4到图7进一步描述根据本发明的第一到第三实施例的活体检测方法。
[0054] 图4是进一步图示根据本发明第一实施例的活体检测方法的流程图。如图4所示, 根据本发明第一实施例的活体检测方法包括以下步骤。
[0055] 在步骤S401中,提示预定内容的显示,显示预定内容。在本发明的第一实施例中, 在所述活体检测系统20的所述显示模块23上显示提示性文字或图案,引导用户注视所述 显示模块23。此后,在所述显示模块23上显示包含位置变化的目标的预定内容。例如,如 上参照图3所述,所述预定内容具有随机生成的运动轨迹的小球。以下,以随机生成的位置 序列(X1J1)代表在时刻i目标的位置。所述位置序列可以是一个随机生成的连续曲线,或 者可替代地,所述位置序列可以是每个时刻随机出现的在屏幕的四角之间跳跃。此后,处理 进到步骤S402。
[0056] 在步骤S402中,获取经由视频采集模块采集的视频数据。在本发明的第一实施例 中,在显示预定内容的同时,所述活体检测系统20的视频采集模块21采集注视预定内容的 显示的待检测对象。所述视频数据可以为一段连续预定时间段(例如,3秒钟)的视频。作 为待检测对象的人脸需要能够清楚地出现在视频中。优选地,所述视频图像的大小不小于 64X64像素。此后,处理进到步骤S403。
[0057] 在步骤S403中,基于视频数据,确定其中的人脸图像作为待检测对象。在本发明 的第一实施例中,所述活体检测系统20的所述活体检测模块22确定视频数据中的人脸图 像作为待检测对象。例如,所述活体检测模块22可以使用预先训练好的人脸检测器(诸 如Adaboost Cascade)来获取视频数据中人脸在视频图像中的位置。此后,处理进到步骤 S404。
[0058] 在步骤S404中,提取人脸图像中眼角和瞳孔的位置信息。在本发明的第一实施例 中,所述活体检测系统20的所述活体检测模块22的所述活体检测模块22。例如,所述活体 检测模块22可以使用训练好的卷积神经网络回归来获得检测到的人脸图像中的各个关键 点的位置。
[0059] 具体地,对于左眼,设(Px1, Py1)为人脸检测器输出的瞳孔位置, (LXl,Lyi),(Rx11Ry1)分别为人脸检测器输出的左眼的左右两个眼角的位置,令d = Sqrt((Lxi-Rxi)MLyi-Ryi) 2),通过如下等式(1)和等式(2)计算左眼瞳孔的相对位置为 (Ax1i, Ay1i),
[0060] Ax1i = (Px ; X (Rxi-Lxi) +Pyi X (Ryi-Lyi)) /d2 等式(1)
[0061 ] Ay1i = (-Px ; X (Ryi-Lyi) +Pyi X (Rxi-Lxi)) /d2 等式(2)
[0062] 类似地,对于右眼,计算右眼瞳孔的相对位置(Axr1, A,),此后,处理进到步骤 S405〇
[0063] 在步骤S405中,基于眼角和瞳孔的位置信息,确定在预定内容显示期间,瞳孔的 相对位置序列。具体地,通过如下等式(3)和等式(4)计算两眼瞳孔相对位置的平均值,
[0064] Axi= (Ax ^+Axr1)/2 等式(3)
[0065] Ayi= (Ay Li+AyRi)/2 等式(4)
[0066] 此后,处理进到步骤S406。
[0067] 在步骤S406中,确定瞳孔的相对位置序列与位置变化的目标的位置序列的相关 系数作为特征信号。具体地,通过如下等式(5)和等式(6)计算预定内容中目标的位置序 列(X1J1)与两眼瞳孔的位置序列的相关系数。
[0068] 计算X与Ax的相关系数 CN 105184246 A 说明书 8/12 页
[0070] 其中,T是采集的总帧数,
[0071] 计算Y与Ay的相关系数
[0073] 其中,T是采集的总帧数,
[0074] 此后,处理进到步骤S407。
[0075] 在步骤S407中,判断相关系数是否大于第一预定阈值。具体地,根据等式(7)计 算相关系数作为特征信号,
[0076] c = cx+cy 等式(7)
[0077] 预先通过训练设置所述第一预定阈值。
[0078] 如果在步骤S407中获得肯定结果,即相关系数大于第一预定阈值,则处理进到步 骤S408。在步骤S408中,确定待检测对象为活体。具体地,如果相关系数大于第一预定阈 值,其指示在待检测对象的视频数据中确定的两眼瞳孔的位置变化与位置变化的目标的位 置序列紧密相关,即存在跟随目标的位置变化而变化的瞳孔的位置变化,这是作为活体的 待检测对象具有的特性。
[0079] 相反地,如果在步骤S407中获得否定结果,即相关系数不大于第一预定阈值,则 处理进到步骤S409。在步骤S409中,确定待检测对象为非活体。具体地,如果相关系数不大 于第一预定阈值,其指示在待检测对象的视频数据中不存在与位置变化的目标的位置序列 紧密相关的瞳孔的位置变化,即待检测对象不具有瞳孔跟随目标位置变化而变化的特性。
[0080] 如上参照图4描述了根据本发明的第一实施例的活体检测方法,其利用人眼随着 屏幕中内容的位置改变而产生眼球(瞳孔位置)的运动的特点,能够有效的区分出视频回 放、照片和活体人脸。同时,根据本发明的第一实施例的活体检测方法不需要用户做特定的 动作或表情,配合难度低,用户体验好。
[0081] 图5是进一步图示根据本发明第二实施例的活体检测方法的流程图。如图5所示, 根据本发明第二实施例的活体检测方法包括以下步骤。
[0082] 在步骤S501中,获取经由视频采集模块采集的视频数据。根据本发明第二实施例 的活体检测方法不包括根据本发明的第一实施例的活体检测方法中提示预定内容的显示, 显示预定内容的步骤。所述视频采集模块21采集的视频数据是在没有显示预定内容的情 况下,即在不需要所述活体检测模块22特别提醒用户活体检测流程已经开始的情况下,直 接由所述视频采集模块21采集的用户正常操作流程(例如,点选菜单)期间的视频。此后, 处理进到步骤S502。
[0083] 在步骤S502中,基于视频数据,确定其中的人脸图像作为待检测对象。类似于图4 中的步骤S403,在本发明的第二实施例中,所述活体检测系统20的所述活体检测模块22确 定视频数据中的人脸图像作为待检测对象。例如,所述活体检测模块22可以使用预先训练 好的人脸检测器(诸如Adaboost Cascade)来获取视频数据中人脸在视频图像中的位置。 此后,处理进到步骤S503。
[0084] 在步骤S503中,提取人脸图像中眼角和瞳孔的位置信息。类似于图4中的步骤 S404,在本发明的第二实施例中,所述活体检测系统20的所述活体检测模块22的所述活体 检测模块22。例如,所述活体检测模块22可以使用训练好的卷积神经网络回归来获得检测 到的人脸图像中的各个关键点的位置。此后,处理进到步骤S504。
[0085] 在步骤S504中,基于眼角和瞳孔的位置信息,确定瞳孔的相对位置序列。在本发 明的第二实施例中,具体地,采用等式(1)和(2)计算左眼瞳孔的相对位置为(Ax^Af1)和 右眼瞳孔的相对位置(Axr1, Ay')。此后,处理进到步骤S505。
[0086] 在步骤S505中,确定瞳孔的相对位置方差作为特征信号。在本发明的第二实施例 中,具体地,采用等式(8)和(9)计算瞳孔的相对位置方差,
[0089] 此后,处理进到步骤S506。
[0090] 在步骤S506中,判断相对位置方差是否大于第一预定阈值。具体地,根据等式 (10)计算相关系数
[0091] S = Sx+Sy 等式(10)
[0092] 预先通过训练设置所述第二预定阈值。
[0093] 如果在步骤S506中获得肯
当前第3页1 2 3 4 5 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1