活体验证方法、装置和系统的制作方法_3

文档序号:9645916阅读:来源:国知局
人脸检测,得到人脸区域。
[0076]S322.对所得到的人脸区域,标记出人脸特征点。
[0077]S323.对标记出的人脸特征点进行归一化,使坐标位于[0,1] X [0, 1]坐标范围内,将归一化后的人脸特征点作为人脸姿态特征。
[0078]S324.根据标记出的人脸特征点,得到眼部的位置,裁剪出左右两眼的眼部图像。
[0079]S325.将所裁剪出的眼部图像归一化到统一的分辨率mXn像素大小。
[0080]通过上述步骤,即可以很方便、快速地从人脸图像中提取出人脸姿态特征和眼部图像。在下文中将详细介绍神经网络模型的获取方法,如图7所示,该方法可以包括如下步骤:
[0081]S41.采集海量不同人、不同视线下的人脸图像,具体可以包括如下步骤:
[0082]S41a)使用成熟的摄像头校准的方法,得到摄像头的内部参数,同时,使用基于镜面的校准方法,估算出屏幕的三维位置。
[0083]S41b)使用带有摄像头和屏幕的设备,在屏幕上随机逐个生成若干个视觉中心点。
[0084]S41c)要求被采集人将视线注视在屏幕上的视觉中心点,当采集人确认视线已注视到视觉中心点时,采集此时的人脸图像。
[0085]S41d)重复上述步骤S41b和S41c,采集海量的不同人、不同视线下的人脸图像。同样地,采集设备包括不同型号的摄像头和屏幕,如笔记本电脑、平板电脑、智能手机等,被采集人人数众多,采集环境多变。
[0086]S42.从采集到的人脸图像中提取人脸姿态特征、眼部图像和视线向量,具体可以包括如下步骤:
[0087]S42a)对采集到的人脸图像进行人脸检测,得到人脸区域。
[0088]S42b)对所得到的人脸区域,标记出人脸特征点。
[0089]S42c)对标记出的人脸特征点进行归一化,使坐标位于[0,1] X [0, 1]坐标范围内,将归一化后的人脸特征点作为人脸姿态特征。
[0090]S42d)根据标记出的人脸特征点,得到眼部的位置,裁剪出左右两眼的眼部图像,并归一化到统一的分辨率mXn像素大小。
[0091]S42e)获取头部三维模型。
[0092]S42f)将所得到的人脸特征点对应到头部三维模型上。
[0093]S42g)根据所得到的人脸特征点和头部三维模型的对齐结果和视觉中心点位置,计算视线向量,即眼睛(眼部中间特征点作为眼睛的位置)到视觉中心点的向量,并将该向量归一化到单位长度。
[0094]S43.根据所得到的人脸姿态特征、眼部图像和视线向量得到神经网络模型,具体可以包括如下步骤:
[0095]S23a)搭建深度神经网络模型,将所得到的mXn分辨率的眼部图像作为输入,搭建多层深度卷积神经网络,该多层深度卷积神经网络通过卷积层、降采样层、非线性层依次连接,最后一层是一个f维的全连接层,并将所得到的人脸姿态特征和这个f维的全连接层拼接在一起,作为拓展的全连接层,所得到的视线向量V作为输出层,同样如图5所示。
[0096]S23b)利用所得到的人脸姿态特征、眼部图像和视线向量数据,所搭建的深度神经网络进行训练,得到视线追踪的深度神经网络模型。训练基于反向传播算法,在训练数据上利用随机梯度下降更新模型参数。
[0097]通过采用该深度神经网络模型来估计视线向量,无需复杂而昂贵的眼动仪等外设设备就可以快速准确地进行视线向量估计,从而提升了活体判断的准确度。
[0098]实施例3
[0099]本实施例公开了一种活体验证装置,如图8所示,包括:
[0100]轨迹生成和图像采集单元11,用于生成按预设轨迹运动的视觉中心点,并在视觉中心点运动过程中采集多帧人脸图像,在采集过程中,被测对象的视线始终跟随所述视觉中心点运动;
[0101]图像信息提取单元12,用于对所采集的每帧人脸图像提取图像信息;
[0102]视线向量估计单元13,用于根据所提取的图像信息估计出视线向量;
[0103]投影轨迹生成单元14,根据估计出的视线向量得到估计的投影轨迹;
[0104]对比单元15,将估计的投影轨迹与视觉中心点的预设轨迹进行对比,当两者间的相似度大于或等于预设阈值时,判断被测对象为活体,当两者间的相似度小于预设阈值时,判断被测对象不是活体。
[0105]根据本实施例的活体验证装置,通过在验证过程中实时采集被测对象的人脸图像,根据人脸图像估计被测对象的视线轨迹,并通过将估计的视线轨迹与视觉中心点的实际运动轨迹对比来判断被测对象是否活体,仅需要带有摄像头和屏幕的设备即可以完成判断,与现有技术中的活体验证方法相比,不需要复杂的平台和光源配合,并且判断的准确度和可靠性高。
[0106]当图像信息是眼部图像时,该图像信息提取单元12可以包括:
[0107]人脸检测子单元,用于对每帧人脸图像进行人脸检测,得到人脸区域;
[0108]人脸特征点标记子单元,用于对所得到的人脸区域,标记出人脸特征点;
[0109]眼部图像裁剪子单元,用于根据标记出的人脸特征点,得到眼部的位置,裁剪出左右两眼的眼部图像,并将所裁剪出的眼部图像统一到相同像素大小。
[0110]作为一种优选实施方式,当图像信息是人脸姿态特征和眼部图像时,图像信息提取单元可以包括:
[0111]人脸检测子单元,用于对每帧人脸图像进行人脸检测,得到人脸区域;
[0112]人脸特征点标记子单元,用于对所得到的人脸区域,标记出人脸特征点;
[0113]人脸特征点归一化子单元,用于对标记出的人脸特征点进行归一化,将归一化后的人脸特征点作为人脸姿态特征;
[0114]眼部图像裁剪子单元,用于根据标记出的人脸特征点,得到眼部的位置,裁剪出左右两眼的眼部图像,并将所裁剪出的眼部图像统一到相同像素大小。
[0115]由此,进一步考虑了被测对象的头部发生运动的情况,在被测对象头部发生运动时,仍然可以准确地进行活体检测。
[0116]优选地,视线向量估计单元13将所述图像信息输入到神经网络模型来得到估计的视线向量,该神经网络模型可以通过以下子单元得到:
[0117]采集子单元,用于采集海量不同人、不同视线下的人脸图像;
[0118]提取子单元,用于从采集到的人脸图像中提取图像信息和视线向量;
[0119]神经网络模型生成子单元,用于根据所得到的图像信息和视线向量得到所述神经网络模型。
[0120]神经网络模型的生成方法与实施例1和实施例2相同,在此不再赘述。通过采用该深度神经网络模型来估计视线向量,无需复杂而昂贵的眼动仪等外设设备就可以快速准确地进行视线向量估计,从而提升了活体判断的准确度。
[0121]实施例4
[0122]本实施例公开了一种活体验证系统,该活体验证系统可以应用于手机、平板电脑、笔记本电脑、PC机以及其他所有带有摄像头和屏幕的设备,如图9所示,该系统包括:
[0123]显示装置21,用于显示预设轨迹25运动的视觉中心点24,该显示装置21例如可以是显不屏;
[0124]图像采集装置22,用于在视觉中心点24运动过程中采集被测对象的多帧人脸图像,在采集过程中,被测对象的视线始终跟随视觉中心点24运动,该图像采集装置22例如可以是摄像头;
[0125]处理器23,用于生成该按预设轨迹25运动的视觉中心点24;对所采集的每帧人脸图像提取图像信息;根据所提取的图像信息估计出视线向量;根据估计出的视线向量得到估计的投影轨迹26 ;将估计的投影轨迹26与视觉中心点的预设轨迹25进行对比,当两者间的相似度大于或等于预设阈值时,判断被测对象为活体,当两者间的相似度小于预设阈值时,判断被测对象不是活体。
[0126]根据本实施例的活体验证系统,通过在验证过程中实时采集被测对象的人脸图像,根据人脸图像估计被测对象的视线轨迹,并通过将估计的视线轨迹与视觉中心点的实际运动轨迹对比来判断被测对象是否活体,仅需要带有摄像头和屏幕的设备即可以完成判断,不需要复杂的外设设备;采用视线追踪的方式让被测对象的视线随着随机生成的预设轨迹移动,难以被伪造,大大提升了活体验证的准确度和可靠性。
[0127]当图像信息是眼部图像时,该对所采集的每帧人脸图像提取图像信息的步骤可以包括:
[0128]对每帧人脸图像进行人脸检测,得到人脸区域;
[0129]对所得到的人脸区域,标记出人脸特征点;
[0130]根据标记出的人脸特征点,得到眼部的位置,裁剪出左右两眼的眼部图像,并将所裁剪出的眼部图像统一到相同像素大小。
[0131]作为一种优选实施方式,当图像信息是人脸姿态特征和眼部图像时,该对所采集的每帧人脸图像提取图像信息的步骤可以包括:
[0132]对每帧人脸图像进行人脸检测,得到人脸区域;
[0133]对所得到的人脸区域,标记出人脸特征点;
[0134]对标记出的人脸特征点进行归一化,将归一化后的人脸特征点作为人脸姿态特征;
[0135]根据标记出的人脸特征点,得到眼部的位置,裁剪出左右两眼的眼部图像,并将所裁剪出的眼部图像统一到相同像素大小。
[0136]由此,进一步考虑了被测对象的头部发生运动的情况,在被测对象头部发生运动时,仍然可以准确地进行活体检测。
[0137]作为一种优选实施方式,通过将所提取的眼部图像或人脸姿态特征和眼部图像两者输入到已训练好的神经网络模型,以得到估计的视线向量,神经网络模型的生成方法与实施例1和实施例2相同,在此不再赘述。通过采用该深度神经网络模型来估计视线向量,无需复杂而昂贵的眼动仪等外设设备就可以快速准
当前第3页1 2 3 4 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1