活体检测方法、活体检测系统以及计算机程序产品的制作方法_2

文档序号:9848283阅读:来源:国知局
1是图示根据本发明实施例的活体检测方法的流程图。如图1所示,根据本发明实施例的活体检测方法包括以下步骤。
[0033]在步骤SlOl中,获取经由视频采集装置采集的视频数据。在本发明的一个实施例中,所述视频采集装置为能够获取被摄体的视频数据的摄像头(诸如智能电话的前置或后置摄像头、门禁系统的摄像头等)。获取经由视频采集装置采集的视频数据包括但不限于,在由物理位置上分离配置的视频采集装置采集视频数据之后,经由有线或者无线方式,接收从所述视频采集装置发送的视频数据。可替代地,视频采集装置可以与活体检测系统中的其他模块或组件物理上位于同一位置甚至位于同一机壳内部,活体检测系统中的其他模块或组件经由内部总线接收从所述视频采集装置发送的视频数据。
[0034]在本发明的一个实施例中,经由视频采集装置采集的视频数据可以为一段连续预定时间段(例如,3秒钟)的视频。作为活体检测对象的人脸需要能够清楚地出现在视频中。在本发明的一个优选实施例中,在所述预定时间段的视频中,需要记录活体检测对象根据指示完成特定动作前后的特定区域的图像。所述特定动作例如可以是用手指按压两腮的皮肤,或者吸气将两腮鼓起。此后,处理进到步骤S102。
[0035]在步骤S102中,基于视频数据,确定待检测对象。在本发明的一个实施例中,可以使用预先训练好的人脸检测器(诸如Adaboost Cascade)来获取视频数据中人脸在视频图像中的位置。具体地,例如预先采集大量(诸如N=1000)人脸图像,人工在每张图像中标注人脸的眼角、嘴角、鼻翼、颧骨最高点等一系列关键点,使用机器学习算法(诸如、深度学习、或者基于局部特征的回归算法),训练获得人脸检测器(诸如Adaboost Cascade)。使用训练好的人脸检测器,可以基于输入的图像,输出人脸位置以及关键点坐标。更进一步地,在获得人脸位置以及其上的关键点坐标之后,根据关键点确定人脸区域中的至少一个关键区域。例如,可以将人脸区域划分为一系列三角片元,将位于下巴、颧骨、两腮等区域的三角片元的图像作为关键区域图像。此后,处理进到步骤S103。
[0036]在步骤S103中,获取对应于待检测对象的待检测信号。在本发明的一个实施例中,在记录活体检测对象根据指示完成特定动作前后的关键区域的图像后,将捕获的特定动作前后的关键区域的图像作为待检测信号。在本发明的另一个实施例中,在记录活体检测对象根据指示完成特定动作前后的关键区域的图像后,将捕获的特定动作后的关键区域的图像以及特定动作后的关键区域周围预定范围的相关区域图像作为待检测信号。如果所述待检测对象是活体,则所述待检测信号中将包含反应活体皮肤弹性的特征信号。以下,将参照流程图进一步详细描述如何处理并且获取待检测信号。此后,处理进到步骤S104。
[0037]在步骤S104中,确定待检测信号是否为活体生理信号。在本发明的一个实施例中,将在步骤S103中获取的待检测信号送入训练好的分类器。如果分类器确定待检测信号是活体生理信号,则输出I,否则输出O。训练分类器的过程可以离线进行。例如,事先收集活体真人执行规定动作的前后帧的图像,同时收集使用照片、视频回放、纸片面具以及3D模型等做规定动作的攻击图像,将前者作为正样本,将后者作为负样本,然后使用深度学习,支撑向量机等统计学习方法训练分类器。
[0038]上述根据本发明实施例的活体检测方法,通过检测被试者的视频图像序列中的皮肤弹性特征以进行活体检测,从而可以有效地防范照片、3D人脸模型和面具攻击。
[0039]以下,将参照图2进一步描述执行上述活体检测方法的活体检测系统。
[0040]图2是图示根据本发明实施例的活体检测系统的功能性框图。如图2所示,根据本发明实施例的活体检测系统20包括视频数据获取模块21、待检测对象确定模块22、待检测信号获取模块23以及活体检测模块24。所述视频数据获取模块21、待检测对象确定模块22、待检测信号获取模块23以及活体检测模块24例如可以由诸如硬件(例如摄像头、服务器、专用计算机或CPU、GPU、以及各种专用集成电路等)、软件、固件以及它们的任意可行的组合配置。
[0041]具体地,所述视频数据获取模块21用于获取视频数据。在本发明的一个实施例中,所述视频数据获取模块21可以是包括能够获取被摄体的视频数据的RGB摄像机的视频采集装置。在本发明的另一个实施例中,所述视频数据获取模块21可以包括能够获取被摄体的深度信息的深度相机(深度摄像机)的视频采集装置。所述视频数据获取模块21可以与其后的待检测对象确定模块22、待检测信号获取模块23以及活体检测模块24物理上分离,或者物理上位于同一位置甚至位于同一机壳内部。在所述视频数据获取模块21与其后的待检测对象确定模块22、待检测信号获取模块23以及活体检测模块24物理上分离的情况下,所述视频数据获取模块21进一步经由有线或者无线方式将所述视频采集装置获取的深度视频数据发送给其后的模块。在所述视频数据获取模块21与其后的待检测对象确定模块22、待检测信号获取模块23以及活体检测模块24物理上位于同一位置甚至位于同一机壳内部的情况下,所述视频数据获取模块21经由内部总线将所述视频采集装置获取的深度视频数据发送给其后的模块。所述视频数据可以是RGB彩色视频数据或者包括深度信息的RGBD视频数据。在经由有线或者无线方式或者经由内部总线发送所述视频数据之前,可以将其预定格式进行编码和压缩为视频数据包,以减少发送需要占用的通信量和带宽。
[0042]此外,如上所述,在本发明的一个实施例中,经由作为视频采集装置的所述视频数据获取模块21采集的频数据可以为一段连续预定时间段(例如,3秒钟)的视频。作为活体检测对象的人脸需要能够清楚地出现在视频中。在本发明的一个优选实施例中,在所述预定时间段的视频中,需要记录活体检测对象根据指示完成特定动作前后的特定区域的图像。所述特定动作例如可以是用手指按压两腮的皮肤,或者吸气将两腮鼓起。
[0043]所述待检测对象确定模块22用于基于所述视频数据获取模块21采集的所述视频数据,确定待检测对象。如上所述,所述待检测对象确定模块22可以使用预先训练好的人脸检测器(诸如Adaboost Cascade)来获取视频数据中人脸在视频图像中的位置。使用训练好的人脸检测器,可以基于输入的图像,输出人脸位置以及关键点坐标。更进一步地,在获得人脸位置以及其上的关键点坐标之后,根据关键点确定人脸区域中的至少一个关键区域。例如,可以将人脸区域划分为一系列三角片元,将位于下巴、颧骨、两腮等区域的三角片元的图像作为关键区域图像。
[0044]所述待检测信号获取模块23用于获取对应于由所述待检测对象确定模块22确定的待检测对象的待检测信号。具体地,在本发明的一个实施例中,在记录活体检测对象根据指示完成特定动作前后的关键区域的图像后,将捕获的特定动作前后的关键区域的图像作为待检测信号。在本发明的另一个实施例中,在记录活体检测对象根据指示完成特定动作前后的关键区域的图像后,将捕获的特定动作后的关键区域的图像以及特定动作后的关键区域周围预定范围的相关区域图像作为待检测信号。如果所述待检测对象是活体,则所述待检测信号中将包含反应活体皮肤弹性的特征信号。
[0045]所述活体检测模块24用于对所述待检测信号获取模块23提取的所述待检测信号执行活体检测,以确定所述待检测信号是否为活体生理信号。在本发明的一个实施例中,所述活体检测模块24是训练好的分类器。如果分类器确定待检测信号是活体生理信号,则输出I,否则输出O。训练分类器的过程可以离线进行。例如,事先收集活体真人执行规定动作的前后帧的图像,同时收集使用照片、视频回放、纸片面具以及3D模型等做规定动作的攻击图像,将前者作为正样本,将后者作为负样本,然后使用深度学习,支撑向量机等统计学习方法训练分类器。
[0046]以下,将进一步参照附图详细描述由根据本发明实施例的活体检测系统的各个模块执行的根据本发明实施例的活体检测方法的各个具体步骤流程。
[0047]图3是进一步图示根据本发明实施例的活体检测方法中获取待检测信号的第一示例流程图。如图3所示,根据本发明实施例的活体检测方法中获取待检测信号的第一示例包括以下步骤。
[0048]在步骤S301中,基于视频数据,确定其中的人脸图像作为待检测对象。如上所述,在本发明的一个实施例中,使用预先训练好的人脸检测器(诸如Adaboost Cascade)来获取视频数据中人脸在视频图像中的位置。此后,处理进到步骤S302。
[0049]在步骤S302中,确定人脸图像中的关键点。在本发明的一个实施例中,所述关键点包括但不限于人脸的眼角、嘴角、鼻翼、颧骨最高点等。此后,处理进到步骤S303。
[0050]在步骤S303中,基于关键点将人脸图像划分为至少一个关键区域。在本发明的一个实施例中,基于在步骤S302中确定的诸如眼角、嘴角、鼻翼、颧骨最高点等的关键点,将将人
当前第2页1 2 3 4 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1