生物特征活体检测方法及系统的制作方法

文档序号:10618225阅读:571来源:国知局
生物特征活体检测方法及系统的制作方法
【专利摘要】本申请提供一种生物特征活体检测方法和系统,以拒绝诸如人脸图片、人脸录像和声音录音等方式的假体攻击。首先,生成随机动作和语音序列指令;然后,以视听觉方式将随机动作序列指令呈现给用户,同时采集用户的人脸视频及语音数据并实时反馈给用户;通过分析所采集数据与随机动作序列指令的符合程度,从而判断是否为活体人。本申请的技术方案中动作和语音指令随机生成,很难被事先准备的人脸照片、视频、或语音攻击;随机动作序列指令的视听觉呈现帮助用户理解指令;用户视频及语音的同步反馈呈现,有效地引导用户做出相应动作和发声;从而提高身份验证的安全性,并提升产品的易用性和用户体验。
【专利说明】
生物特征活体检测方法及系统
技术领域
[0001] 本发明设及自动图像分析与生物特征识别技术领域,尤其设及一种生物特征活体 检测方法及系统。
【背景技术】
[0002] 生物特征识别在身份验证和授权领域中有重要应用,例如利用人脸识别手段进行 移动支付中的身份验证,可W加强互联网和移动互联网业务中的身份安全性。然而,人脸识 别系统容易受到伪造人脸的攻击,引发信息与身份安全问题。例如,攻击者可W通过某种手 段获取账号拥有者的人脸图像并制成照片、视频或面具等伪造特征,呈现在识别系统前,W 代替真实人脸获得非法权限。
[0003] 目前主要的用于区分真人和伪造人脸的技术,主要可分为二大类。第一类是基于 纹理的方法,该方法通过获取丰富的人体皮肤细节纹理,分析纹理的高频分量来区分真人 和伪造特征。第二类方法基于运动模式的分析,例如,人通常处于一定的背景中,当人运动 时,背景也随之变化,对于真人,人体区域的运动和背景的运动相对独立,通过分析人体区 域和背景区域的相对运动模式,可W区分真人和伪造特征。
[0004] 但发明人在产品研制和使用过程中发现:随着照片采集和打印技术的不断提高, 目前已能够获取较为高清的人体皮肤照片,包含丰富的纹理细节,致使第一类基于纹理的 方法的可靠性大大降低;第二类方法通常无法解决视频播放的攻击方式。目前尚缺乏能够 有效识别真实的人、防止伪造特征攻击的人脸识别方法和系统。

【发明内容】
阳〇化]为了克服现有生物特征防伪技术存在的上述问题,本发明提供一种基于人机交互 与模式识别相结合的生物特征活体检测方法和系统,W拒绝假体攻击如人脸图片、人脸录 像和声音录音,提高生物特征识别的安全性。
[0006] 本申请提供的一种生物特征活体检测方法及系统详述如下。
[0007] 根据本申请实施例的第一方面,提供一种生物特征活体检测方法,包括:
[0008] 生成随机动作序列指令;
[0009] 将所述随机动作序列指令的代码转换成文本、视觉和/或听觉编码,并W视觉画 面、听觉声音或二者结合的方式呈现;
[0010] 采集用户响应图像序列;
[0011] 将所述响应图像序列与所述随机动作序列指令同步进行视觉呈现;
[0012] 分析所述响应图像序列中用户的响应动作序列;
[0013] 判断所述响应动作序列是否符合所述随机动作序列指令对应的动作序列,如果符 合,则判断所述响应动作序列来自活体人。
[0014] 其中,所述的生物特征活体检测方法,还可W包括:
[0015] 生成随机语音序列指令;
[0016] 将所述随机语音序列指令的代码转换成文本、视觉和/或听觉编码,并W视觉画 面、听觉声音或二者结合的方式呈现;
[0017] 采集用户响应语音序列;
[0018] 分析所述响应语音序列中用户的响应语音;
[0019] 判断所述响应语音是否符合所述随机语音序列指令对应的语音序列,如果符合, 则判断所述响应语音序列来自活体人。
[0020] 其中,所述的生物特征活体检测方法,在随机动作序列指令中为每个动作指定时 间戳,所述时间戳用于标识每个动作的动作时间或每个动作的起始时间和结束时间,所述 时间戳随机生成。
[0021] 其中,所述分析所述响应图像序列中用户的响应动作序列,包括:
[0022] 从响应图像序列中检测每张图像中的人脸;
[0023] 对每张人脸进行关键点定位;
[0024] 根据定位的人脸关键点计算头部姿态转角;
[0025] 根据定位的人脸关键点计算人脸表情类型;
[00%] 根据所述头部姿态转角和所述人脸表情类型得到用户的响应动作序列; 阳027] 比较所述响应动作序列和所述随机动作序列指令对应的动作序列,计算动作类型 符合度;
[0028] 将所述动作类型符合度与第一预设阔值比较,如果所述动作类型符合度大于第一 预设阔值,则判断所述响应动作序列来自活体人,否则不认为来自活体人。
[0029] 其中,所述分析所述响应图像序列中用户的响应动作序列,还可W包括:
[0030] 对所述响应动作序列中的每个动作,计算每个动作的动作时间;
[0031] 比较所述计算的每个动作的动作时间与每个动作的时间戳,计算动作时间符合 度;
[0032] 计算动作总体符合度=动作类型符合度+WX动作时间符合度,其中W为权值;
[0033] 将所述动作总体符合度与第二预设阔值比较,如果动作总体符合度大于第二预设 阔值,则判断所述响应动作序列来自活体人,否则不认为来自活体人。
[0034] 其中,所述的生物特征活体检测方法,还可W包括:
[0035] 识别所述响应语音序列内容;
[0036] 计算所述响应语音序列的语音内容符合度;
[0037] 计算总体符合度二动作类型符合度+W1X动作时间符合度+W2X语音内容符合 度,其中wl、w2为权值;
[0038] 将所述总体符合度与第Ξ预设阔值比较,如果总体符合度大于第Ξ预设阔值,贝U 判断所述响应动作序列来自活体人,否则不认为来自活体人。
[0039] 其中,根据安全等级设定随机动作序列指令的复杂度和所述第一预设阔值、第二 预设阔值和第Ξ预设阔值的大小。
[0040] 相应于本申请实施例的第一方面,根据本申请实施例的第二方面,提供一种生物 特征活体检测系统,包括:
[0041] 动作序列指令生成单元,用于生成随机动作序列指令;
[0042] 动作指令呈现单元,包括显示器和扬声器,用于先将所述随机动作序列指令的代 码转换成文本、视觉和/或听觉编码,并w视觉画面、听觉声音或二者结合的方式呈现;
[0043] 其中,所述显示器,用于显示所述随机动作序列指令的文本和/或视觉编码的画 面,所述扬声器,用于播放所述随机动作序列指令的文本和/或听觉编码声音;
[0044] 图像采集单元,用于采集用户响应人脸图像序列;
[0045] 响应动作呈现单元,用于将所述响应图像序列与所述随机动作序列指令同步进行 视觉呈现;
[0046] 动作分析单元,用于分析所述响应人脸图像序列中用户的响应动作序列;
[0047] 动作符合度判断单元,用于判断所述响应动作序列是否符合所述随机动作序列指 令对应的动作序列,如果符合,则判断所述响应动作序列来自活体人。
[0048] 其中,所述的生物特征活体检测系统,还可W包括:
[0049] 语音指令生成单元,用于生成随机语音指令;
[0050] 语音指令呈现单元,包括显示器和扬声器,用于先将所述随机语音序列指令的代 码转换成文本、视觉和/或听觉编码,并W视觉画面、听觉声音或二者结合的方式呈现;
[0051] 语音采集单元,用于采集用户响应语音序列;
[0052] 语音分析单元,用于分析所述响应语音序列中用户的响应语音;
[0053] 语音符合度判断单元,用于判断所述响应语音是否符合所述随机语音序列指令对 应的语音序列,如果符合,则判断所述响应语音序列来自活体人。
[0054] 其中,所述随机动作序列指令生成单元在随机动作序列指令中为每个动作指定时 间戳,所述时间戳用于标识每个动作的动作时间或每个动作的起始时间和结束时间,所述 时间戳随机生成。 阳化5] 其中,所述动作分析单元,包括:
[0056] 人脸检测子单元,用于从响应动作序列中检测每张图像中的人脸;
[0057] 关键点定位子单元,用于对每张人脸进行关键点定位;
[0058] 头部姿态转角计算子单元,用于根据定位的人脸关键点计算头部姿态转角;
[0059] 人脸表情类型计算子单元,用于根据定位的人脸关键点计算人脸表情类型;
[0060] 动作序列识别子单元,用于根据所述头部姿态转角和所述人脸表情类型得到所述 响应动作序列; 阳061] 所述动作符合度判断单元,包括:
[0062] 动作类型符合度计算子单元,比较所述响应动作序列和所述动作序列指令对应的 动作序列,计算动作类型符合度;
[0063] 第一判断子单元,用于将所述动作类型符合度与第一预设阔值比较,如果所述动 作类型符合度大于第一预设阔值,则响应动作序列中人的响应动作类型符合所述随机动作 序列指令,判断所述响应动作序列来自活体人,否则不认为来自活体人。 W64] 其中,所述动作分析单元,还可W包括: 阳0化]动作时间计算子单元,用于对所述响应动作序列中的每个动作,计算每个动作的 动作时间;
[0066] 动作时间符合度计算子单元,用于将所述计算的每个动作的动作时间与每个动作 的时间戳比较,计算动作时间符合度;
[0067] 动作总体符合度计算子单元,用于计算动作总体符合度,动作总体符合度=动作 类型符合度+wX动作时间符合度,其中w为权值;
[0068] 第二判断子单元,用于将所述动作总体符合度与第二预设阔值比较,如果大于第 二预设阔值,则响应动作序列中人的响应动作符合所述随机动作序列指令对应的动作序 列,判断所述响应动作序列来自活体人,否则不认为来自活体人。
[0069] 其中,所述的生物特征活体检测系统,还可W包括:
[0070] 语音分析单元,用于识别所述响应语音序列内容;
[0071] 语音符合度计算单元,用于计算所述响应语音序列的所述响应语音内容符合度;
[0072] 总体符合度计算单元,用于计算总体符合度,计算总体符合度=动作类型符合度 +W1X动作时间符合度+W2X语音内容符合度,其中wl、w2为权值;
[0073] 第Ξ判断单元,用于将所述总体符合度与第Ξ预设阔值比较,如果大于第Ξ预设 阔值,则判断所述响应动作序列来自活体人,否则不认为来自活体人。
[0074] 其中,根据安全等级设定随机动作序列指令的复杂度和所述第一预设阔值、第二 预设阔值和第Ξ预设阔值的大小。
[0075] 本申请实施例提供的技术方案可W包括W下有益效果:动作和语音指令随机生 成,很难使用事先准备的人脸照片、视频、或语音语料进行攻击;将随机动作序列指令进行 视听觉呈现,有效帮助用户理解指令;将用户的动作及语音同步反馈呈现,有效地引导用户 做出相应动作和发声,从而提高身份验证的安全性,并提升产品的易用性和用户体验。
[0076] 应当理解的是,W上的一般描述和后文的细节描述仅是示例性和解释性的,并不 能限制本申请。
【附图说明】
[0077] 为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现 有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而 言,在不付出创造性劳动性的前提下,还可W根据运些附图获得其他的附图。
[0078] 图1为本申请一示例性实施例示出的一种生物特征活体检测方法的流程示意图。
[0079] 图2为本申请一示例性实施例示出的一种生物特征活体检测系统的结构示意图。
[0080] 图3为生物特征活体检测系统的随机动作序列指令可视化视觉呈现和随机语音 序列指令可视化视觉呈现的示意图。
[0081] 图4为显示器为竖屏时一种生物特征活体检测系统的随机动作序列指令视觉呈 现示意图。
[0082] 图5为显示器为横屏时一种生物特征活体检测系统的随机动作序列指令视觉呈 现示意图。
[0083] 图6为将随机动作序列指令的文本和响应动作序列同时做视觉呈现的示意图。
[0084] 图7为将随机语音序列指令和随机动作序列指令与所采集的用户响应动作序列 一起同步显示的示意图。
【具体实施方式】
[0085] 运里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述设及 附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。W下示例性实施例 中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附 权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
[0086] 为了全面理解本申请,在W下详细描述中提到了众多具体的细节,但是本领域技 术人员应该理解,本申请可W无需运些具体细节而实现。在其他实施例中,不详细描述公知 的方法、过程、组件和电路,W免不必要地导致实施例模糊。
[0087] 图1为本申请一示例性实施例示出的一种生物特征活体检测方法的流程示意图, 如图1所示,所述方法包括:
[0088] 步骤S101,生成随机动作序列指令。
[0089] 其中,所述随机动作序列指令用于指示用户如何做动作,其由动作类型描述组成, 还可W包括每个动作指定时间戳,所述时间戳用于标识每个动作的动作时间或每个动作的 开始时间和结束时间。所述时间戳用于标识每个动作的动作时间时为相对时间戳,表征了 随机动作序列指令中,每个动作类型的动作时间长度;所述时间戳用于标识每个动作的开 始时间和结束时间时为绝对时间戳,根据绝对时间戳可W计算每个动作的动作时间,即每 个动作的结束时间减去每个动作的结束时间。所述相对时间戳和绝对时间戳可W随机生 成,W使随机动作序列指令的随机程度更高,绝对时间戳随机生成时,后一个动作的绝对时 间戳的开始时间大于前一个动作的绝对时间戳的结束时间。所述动作序列指令可W为单个 动作指令也可W由多个动作指令组合。所述生成随机动作序列指令,可W包括:
[0090] (al)随机确定动作个数N,例如N = 4。
[0091] (a2)从候选动作类型集合中,随机选取N个动作类型进行组合,组合中N个动作类 型的顺序随机,例如随机生成4个动作类型(头部左转30度一右转10度一左转20度一右 转40度),或(头部左转30度一转正成0度一张嘴一闭嘴)。
[0092] (a3)随机指定每个动作类型的动作时间和/或动作次数,所述动作时间为每个动 作类型的持续时间,其中,动作时间可相对时间戳或者绝对时间戳的形式加入动作序 列指令,即每个动作类型描述加上标识动作时间的时间戳,W时间戳形式加入动作序列指 令,可W方便与每个动作类型对应,分隔每个动作类型,并且一致性好,不易出错。当每个动 作类型指定的为绝对时间戳时,后一个动作的开始时间等于前一个动作的结束时间。
[0093] 对每个动作类型还可W指定动作次数,默认动作次数是1次,用户如果在指定动 作时间内做出了多次动作,则在后续识别中只识别指定动作时间内是否做了动作,而不识 别做了几次;可W只指定动作次数,不指定动作时间;也可W动作时间和动作次数都指定, 每个动作类型的动作时间和动作次数可W相同也可W不同;也可W部分动作类型指定动作 时间,部分动作类型不指定动作时间,或者,部分动作类型指定动作次数,部分动作类型不 指定动作次数,W此类推。例如动作类型的动作时间和动作次数指定为:从左到右摇头2 次,动作时间2秒;从上到下摇头3次,动作时间3秒;张嘴2次,动作时间1秒;闭眼3次, 动作时间2秒,相应的动作序列指令为:(从左到右摇头2次,动作时间2秒)一(从上到下 摇头3次,动作时间3秒)一(张嘴2次,动作时间1秒)一(闭眼3次,动作时间2秒), 其中的动作时间W相对时间戳的方式指定。当动作时间W绝对时间戳的方式指定时,相应 的动作序列指令可W为:(从第0秒到第2秒,从左到右摇头2次)一(从第2秒到第5秒, 从上到下摇头3次)一(从第5秒到第6秒,张嘴2次)一(从第6秒到第8秒,闭眼3次)
[0094] 其中,随机动作序列指令可W根据安全等级的不同设定不同的复杂度,例如,安全 等级高时,增加动作序列中的动作个数N。
[0095] 步骤S102,将所述随机动作序列指令的代码转换成文本、视觉和/或听觉编码,并 W视觉画面、听觉声音或二者结合的方式呈现。
[0096] 其中,把随机动作序列指令的代码转换成文本和/或视觉编码,呈现为"张嘴"、"闭 嘴","头左转"、"低头"、"巧眼"等动作的文本字样、图像或动画形式,然后将其W视觉的方式 通过显示器呈现给用户;或者将随机动作序列指令的代码转换成文本和/或听觉编码,转 换成文本,然后通过TTSCText To Speech)引擎转换成语音,例如通过扬声器语音播报"张 嘴"、"闭嘴","头左转"、"低头"、"巧眼"等声音;或者W视觉和听觉二者结合的方式呈现给用 户。通过视听觉的呈现和提示,帮助用户理解指令,W便及时地根据提示做出相应的动作。
[0097] 步骤S103,采集用户响应图像序列。
[0098] 其中,可W利用摄像头或者其他图像视频拍摄设备,拍摄用户的动作,从而采集到 响应人脸图像序列,响应人脸图像序列中每一个图像为拍摄得到的视频帖。
[0099] 步骤S104,将所述响应图像序列与所述随机动作序列指令同步进行视觉呈现;
[0100] 其中,同步进行视觉呈现是将所拍摄的响应图像序列画面与随机动作序列指令一 道同时显示在屏幕上,及时反馈给用户,使用户能够调整自己的动作,使其随机与动作序列 指令一致。 阳101] 步骤S105,分析所述响应图像序列中用户的响应动作序列。 阳102] 其中,步骤S105包括: 阳103] (al)从响应动作序列中检测每张图像中的人脸; 阳104] (a2)对每张人脸进行关键点定位;
[01化](a3)根据定位的人脸关键点计算头部姿态转角;
[0106] (a4)根据定位的人脸关键点计算人脸表情类型; 阳107](曰5)根据头部姿态和表情类型计算所述响应动作序列; 阳108] (a6)比较所述计算所得的响应动作序列和所述随机动作序列指令对应的动作序 列,计算动作类型符合度。
[0109] 其中,对响应动作序列中的每一张图像进行人脸检测,可利用基于局部特征和 Ad油oost学习的人脸检测器,也可W利用基于神经网络训练得到的人脸检测器,如果检测 到人脸,则继续下面的步骤,没有检测到人脸,则跳过该张图像,如果每张图像都没有检测 到人脸,则结束整个过程,此时可W向用户通过视觉或听觉的方式提示用户重新开始。
[0110] 对图像中检测到人脸后,对人脸进行关键点定位,即对每张人脸图像,选取相应的 预设的多个关键点,例如选取68个关键点,根据关键点坐标可W勾勒出人脸细节轮廓。在 关键点基础上计算人脸的姿态和表情分类。 阳111] 在另一种可能的实施方式中,可W使用特征估计法获得头部姿态转角和人脸表情 类型,所述特征估计法预先采集大量的不同姿态和表情下的人脸图像数据,从人脸图像数 据中提取表象特征,采用SVM或者回归等方式训练得到姿态估计分类器,然后使用训练得 到在姿态估计分类器对人脸图像进行姿态和表情估计,例如对于人脸图像,可W进行Gabor 特征提取或者LBP (Local Binary Patterns,局部二值模式)特征提取,采用SVM(Suppo;rt Vector Machine,支持向量机)训练得到姿态和表情分类器来进行人脸图像的姿态估计和 表情分类。
[0112] 其中,得到每张人脸图像对应的头部姿态转角和人脸表情类型后,根据所述头部 姿态转角和所述人脸表情类型将响应人脸图像序列进行切分,W分离和识别与每个动作指 令对应的人体动作,得到响应动作序列。所述切分可W根据动作序列指令的时间戳切分,也 可W根据动作序列指令中的动作类型切分。
[0113] 根据动作序列指令的时间戳切分即将采集的响应人脸图像序列按根据所述时间 戳得到的动作时间进行切分,当时间戳为相对时间戳时,所述相对时间戳的大小即动作时 间的大小,可W根据相对时间戳进行切分,当时间戳为绝对时间戳时,根据动作起止时间进 行切分。例如动作序列指令为(从左到右摇头2次,动作时间2秒)一(从上到下摇头3 次,动作时间3秒)一(张嘴2次,动作时间1秒)一(闭眼3次,动作时间2秒),时间戳 标识的时间分别为2秒、2秒、1秒和2秒,则将响应人脸图像序列按2秒、2秒、1秒、2秒进 行切分。若动作序列指令为(从第0秒到第2秒,从左到右摇头2次)一(从第2秒到第5 秒,从上到下摇头3次)一(从第5秒到第6秒,张嘴2次)一(从第6秒到第8秒,闭眼 3次),时间戳标识的各个动作的起止时间分别为第0秒到第2秒,第2秒到第5秒,第5秒 到第6秒,第6秒到第8秒,则将响应人脸图像序列的按照起止时间进行切分。对切分得到 的每段响应人脸图像序列,结合检测到的每张图像的头部姿态转角和人脸表情类型,识别 每段响应人脸图像序列对应的人体动作,W摇头动作为例,摇头的过程中得到的每个人脸 图像的头部姿态转角都是不同的,将每段的响应人脸图像序列的头部姿态转角数据组合起 来,提取每段响应人脸图像序列的动作特征,使用常规的人体动作识别算法,可W得到每段 响应人脸图像序列对应的动作,同时也可W识别得到所述动作的次数。每段响应人脸图像 序列对应的动作和所述动作的次数按原有的时间先后顺序组合,得到响应动作序列。
[0114] 根据动作序列指令中的动作类型切分,即根据每个人脸图像的头部姿态转角和人 脸表情类型,W及根据动作序列指令中动作类型和对应的动作次数和顺序,依次对全部响 应人脸图像序列进行动作识别,例如,动作序列指令中第一个动作类型为摇头,动作次数为 2次,则在全部响应人脸图像序列中识别是否存在摇头动作W及摇头的次数,如果能够识别 出摇头的动作,则将所有摇头动作对应的响应人脸图像序列从全部响应人脸图像序列中切 分出来,并保持切分出响应人脸图像序列在全部人脸图像的位置顺序,例如被切分出的人 脸图像是位于全部响应人脸图像序列的前端,同时记录切分出来的响应人脸图像序列对应 的动作的次数,例如,识别出的摇头的次数。然后根据动作序列指令中的第二个动作类型, 对剩下的响应人脸图像序列进行动作识别,例如动作序列指令中第二个动作类型为点头, 点头3次,则在剩下的响应人脸图像序列中识别是否存在点头动作W及点头的次数,如果 能够识别出点头的动作,则将所有点头动作对应的响应人脸图像序列从全部响应人脸图像 序列中切分出来,并保持切分出的响应人脸图像序列在全部人脸图像中的时间顺序,W及 和第一次切分出的响应人脸图像序列之间的时序关系,例如是在全部响应人脸图像序列的 前端、中部还是尾部,且在第一次分出的响应人脸图像序列的之前还是之后,同时记录本次 切分出来的响应人脸图像序列对应的动作的次数。W此类推,直至根据动作序列指令中的 最后一个动作类型切分完毕。切分完毕后,将每段切分出来的响应人脸图像序列对应的人 体动作和所述人体动作的次数按原有的时间先后顺序组合,即得到响应动作序列。其中,对 于响应人脸图像序列的动作识别,可W根据响应人脸图像序列中每个图像的头部姿态转角 和人脸表情类型使用常规的动作识别算法。根据动作类型对响应人脸图像序列进行切分 时,切分的过程中同时包含了对动作的识别。可w在切分后再次对每段响应人脸图像序列 进行人体动作的识别,W保证所述识别的正确性,也可W不再进行所述识别,根据切分的结 果得到响应动作序列。
[0115] 根据动作序列指令的时间戳或者动作类型对响应人脸图像序列进行切分时,可W 在切分得到的每段响应人脸图像序列中添加相对时间戳或者绝对时间戳,用于标识对应的 动作的持续时间或者其开始时间和结束时间。根据时间戳切分时,由于每段响应人脸图像 序列有明确的时间长度或者起止时间,可W不必再添加时间戳来标识对应的动作的时间长 度或者起止时间。根据动作类型进行切分时,对切分到的每段响应人脸图像序列,获取时间 顺序上第一张人脸图像和最后一张人脸图像的时间,分别作为该段响应人脸图像序列对应 的动作的开始时间和结束时间,根据开始时间和结束时间为响应动作序列中对应的人体动 作添加时间戳。在响应动作序列中添加时间戳有利于分隔各个动作类型,也有利于切分时 选择进行每个人体动作识别后剩余的响应人脸图像序列,W及有利于计算每个动作类型的 动作时间。
[0116] 对于响应人脸图像序列的切分,根据时间戳进行切分,切分过程简单,但要求用户 能严格按照时间要求完成动作,由于人的动作有时候动作时间难W准确把握,只能大致符 合时间长度的要求,例如,要求摇头2s,实际摇头可能为2. 2s,根据时间戳进行切分,则可 能造成切分的每段响应人脸图像序列对应的人体动作不完整或者有其他动作的残余图像, 使人体动作的识别出现误差。根据动作类型切分,虽然切分过程较为复杂,但根据切分得到 的响应人脸图像序列能够准确地识别出完整的人体动作。
[0117] 在一种可能的实施方式中,根据动作类型对响应人脸图像序列进行切分时,如果 全部的响应人脸图像序列中不能识别出动作序列指令中的第一个动作类型,或者根据全部 的响应人脸图像序列识别出与动作序列指令中第一个动作类型相同的动作类型时,该动作 类型对应的响应人脸图像序列不在全部响应人脸图像序列的前端(第一部分),则可W确 定识别失败,不需再进行后续的步骤。运种方式可W在用户第一个动作即不符合要求,或者 是伪造特征不能进行动作时,判定当前用户非活体人,并结束后续流程,由此可W更简洁快 速地防止可能的不安全特征的攻击。
[0118] 其中,比较所述计算所得的响应动作序列和所述动作序列指令对应的动作序列, 计算动作类型符合度,即比对响应动作序列中的每段动作与对应的动作指令,比对包括动 作的类型和动作的次数,根据比对的结果,为每段动作设置不同的权值,例如,动作序列指 令中第一个动作类型为摇头,动作次数为3次,如果响应动作序列中第一个动作类型为摇 头,动作次数为3次,则响应动作序列中第一个动作类型的权值Si可W设置为1,如果响应 动作序列中第一个动作类型为摇头,但动作次数为2次,则Si可W设置为0. 7, W此类推。将 每段动作的权值相加,得到动作类型符合度。
[0119] 其中,在随机动作序列指令为动作类型加相对时间戳的模式下,步骤S105还可W 包括: 阳120] 化1)对所计算的所述响应动作序列中的每个动作,计算每个动作的动作时间; 阳121 ] 化2)将每个动作的动作时间与每个动作的相对时间戳比较,计算动作时间符合 度;
[0122]化3)计算动作总体符合度=动作类型符合度+wX动作时间符合度,其中W为权 值;
[0123] 将得到的响应动作序列中的每段动作对应的动作时间和对应的相对时间戳进行 比对。根据比对的结果,为响应动作序列的每段动作设置不同的时间权值,将每段动作的时 间权值相加,得到动作时间符合度。每段动作的时间权值可W等于(1-动作时间误差),或 者等于(1/动作时间误差)。其中,随机动作序列指令中相对时间戳为tl,而响应动作序列 中某段动作的动作时间为t2,则运段动作於
[0124] 则动作总体符合度=动作类型符合度+wX动作时间符合度,其中W为权值。
[0125] 其中,在随机动作序列指令为动作类型加绝对时间戳的模式下,步骤S105还可W 包括: 阳126] (cl)对所计算的所述响应动作序列中的每个动作,计算每个动作的动作时间;
[0127] (c2)将每个动作的动作时间与每个动作的绝对时间戳比较,计算动作时间符合 度;
[0128] (c3)计算动作总体符合度=计算动作总体符合度=动作类型符合度+wX动作时 间符合度,其中W为权值;
[0129] 将得到的响应动作序列中的每段动作对应的动作时间和对应的绝对时间戳进行 比对。根据比对的结果,为响应动作序列的每段动作设置不同的时间权值,将每段动作 的时间权值相加,得到动作时间符合度。每段动作的时间权值可W等于(1-动作时间误 差),或者等于(1/动作时间误差)。其中,随机动作序列指令中绝对时间戳为第tl秒 到第t2秒,而响应动作序列中某段动作的动作时间为T,则运段动作的熟作肿间误差
[0130] 则动作总体符合度=动作类型符合度+WX动作时间符合性,其中W为权值。 阳131] 此外,在随机动作序列指令为动作类型加绝对时间戳的模式下,另一种方案还可 W包括:
[0132]分析用户是否在指定的时间戳上,做了指定的指令动作。例如动作类型指令序列 为(第0秒至第2秒,头部左转至30度一第2秒至第4秒,右转至10度一第4秒至第5秒, 左转至20度一第5秒至第7秒,右转至40度),绝对时间戳的开始时间分别为第0秒、第2 秒、第4秒,第5秒,结束时间分别为第2秒,第4秒,第5秒,第7秒。系统检验在第2秒时 头部位置是否为左偏30度,在第4秒时头部位置是否右偏10度,在第5秒时,头部位置是 否左偏20度,在第7秒时,头部位置是否右偏40度,若都符合,则判定完成4个相应的头部 动作判断所述响应动作序列来自活体人,否则不认为来自活体人。 阳133] 步骤S106,判断所述响应动作序列是否符合所述随机动作序列指令对应的动作序 列,如果符合,则判断所述响应动作序列来自活体人。
[0134] 其中,将所述动作类型符合度与第一预设阔值比较,如果所述动作类型符合度大 于第一预设阔值,则响应动作序列中人的响应动作类型符合所述动作序列指令,判断所述 响应动作序列来自活体人,否则不认为来自活体人。在随机动作序列指令为动作类型加时 间戳的模式下,也可W将所述动作总体符合度与第二预设阔值比较,如果大于第二预设阔 值,则响应动作序列中人的响应动作符合所述动作序列指令对应的动作序列,判断所述响 应动作序列来自活体人,否则不认为来自活体人。
[0135] 其中,所述第一预设阔值和第二预设阔值可W根据对安全度的要求来设置,例如, 安全度等级高,则将第一预设阔值和第二预设阔值设置为大的值。
[0136] 下面用本申请在移动支付活体验证应用环境下的一个应用案例进一步说明本申 请,W使本领域技术人员更好地理解本申请的原理和应用。
[0137] 在移动支付过程中,为防止身份验证时伪造特征引发误验证,需识别当前用户是 否为真实的人。为使案例简洁清楚,对本申请的主要步骤进行举例描述。设移动支付过程 中,活体识别系统候选的指令集包括{摇头,张嘴,巧眼}立种常见的动作。
[0138] (la)当系统启动活体识别后,系统随机生成动作序列指令,例如"从左到右摇头3 次,动作时间6秒;张嘴2次,动作时间1秒;巧眼4次,动作时间2秒",并W动画的形式生 成动作指令示意图,呈现给用户。
[0139] (2a)用户根据动作指令示意图,面对摄像头,开始拍摄,可W按要求作出相应的动 作,此时系统采集响应人脸图像序列,用户全部动作完成后,结束摄像,此时系统结束采集 响应人脸图像序列。
[0140] (3a)使用G油or特征提取和SVM训练得到姿态估计分类器,使用所述姿态估计分 类器对采集到的响应人脸图像序列逐帖估计每个图像的姿态,包括头部、眼睛、鼻子和嘴己 的状态。 阳141] (4a)将响应人脸图像序列根据动作指令的时间戳切分成时间长度为6秒、1秒、2 秒的Ξ段。根据每张人脸图像的姿态,识别每段响应动作序列对应的人体动作,得到响应动 作序列。 阳142] 如果根据第一段响应人脸图像序列识别得到的对应的人体动作为3次从左到右 摇头,则设置响应动作序列中对应的第一个动作(动作类型描述为从左到右摇头,动作 次数为3)的权值《=1:;如果响应动作序列中对应的动作为2次从左到右摇头,则设置 Sr = 〇·6 i如果响应动作序列中对应的动作为1次从左到右摇头,则设置Sr = G3 S如果根据 第一段响应动作序列未识别得到从左到右摇头,则设置'S' = G。 阳143] 如果根据第二段响应人脸图像序列识别得到的对应的人体动作为张嘴2次,则设 置响应动作序列中对应的第二个动作的权值=1^日果张嘴次数为1次,则设置&"=化5 > 如果张嘴次数为0 (未根据第二段响应动作序列识别得到张嘴动作),则设置'Si' =?。
[0144] 如果根据第Ξ段响应动作序列识别得到的对应的人体动作为巧眼次数4次,贝U 设置响应动作序列中对应的第Ξ个动作的权值记货=1^如果巧眼次数为3次,则设置 = 0·75 ;如果巧眼次数为2次;则设置= 0·5 ;如果巧眼次数为1次,则设置= 0·25 ; 如果未根据第二段响应动作序列识别得到巧眼动作,则设置巧=0。
[0145] 巧a)计算得到响应动作序列和随机动作序列指令的动作类型符合度为 r =早+《2"+,并与第一预设阔值进行比较,如果sr = 1,=0.5, = 0.25,则动作 类型符合度sa= 1. 75,预设的阔值为2,则由于动作类型符合度小于第一预设阔值,识别失 败,判断当前的用户非活体,相应地,身份验证不能通过。 阳146] 如果根据动作类型对响应动作序列进行切分,则步骤(4a)可W替换为:
[0147] (4b)对全部响应人脸图像序列进行从左到右摇头动作的识别,如果在全部响应 动作序列识别出了从左到右摇头的动作,所述动作对应的响应人脸图像序列位于全部响 应人脸图像序列的前端,但动作次数未满Ξ次,则设置响应动作序列中第一个动作的权值 、,如果动作次数达到Ξ次,则记S| 化己录响应人脸图像序列采集开始时间to和 最后一次从左到右摇头对应的响应动作序列的最后一张人脸图像的采集时间tl,计算得到 响应动作序列中第一个动作的动作时间tl-tO。巧也可W设置为其他的值,也可W根据不 同的动作次数设置不同的值。
[0148] 对tl时刻之后的响应人脸图像序列进行张嘴动作的识别,如果识别出的张嘴次 数未满2次,则设置响应动作序列中第二个动作的权值&& =0,如果张嘴次数达到2次,贝U 设置=1,并记录最后一次张嘴对应的响应人脸图像序列的最后一张人脸图像的采集时 间t2,将t2-tl作为响应人脸图像序列中第二个动作的动作时间。
[0149] 对t2时刻之后的响应人脸图像序列进行巧眼动作的识别,如果识别出的巧眼动 作未满4次,则设置响应人脸图像序列中第Ξ个动作的权值《如果巧眼动作达到4 次,则记巧=1,并记录最后一次巧眼对应的响应人脸图像序列的最后一张人脸图像的采集 时间t3,将t3-t2作为响应人脸图像序列中第Ξ个动作的动作时间。
[0150] 同时步骤巧a)可W替换为: 阳151] 巧b)计算响应动作序列和随机动作序列指令的总体符合度: 阳K2]
其中T1, Τ2,Τ3分别是随机动作序列指令中摇头、张嘴、巧眼对应的时间戳,η是权重系数。 阳153] 根据经验和安全等级要求设置第二预设阔值Θ,当总体符合度大于第二预设阔值 Θ时,则判定为活体人,否则判定为非活体人。
[0154] 在一种可能的实施方式中,本申请实施例提供的生物特征活体检测方法,还包 括: 阳155] (dl)生成随机语音序列指令; 阳156] (d2)将所述随机语音序列指令的代码转换成文本、视觉和/或听觉编码,并W视 觉画面、听觉声音或二者结合的方式呈现;; 阳157] (d3)采集用户响应语音序列;
[0158] (d4)分析所述响应语音序列中用户的响应语音; 阳159] (d5)判断所述响应语音是否符合所述随机语音序列指令对应的语音序列,如果符 合,则判断所述响应语音序列来自活体人。
[0160] 其中,所述随机语音序列指令可W为一串文字或者一串语音片段,其内容随机生 成,或者在语音模板库中随机抽取若干语音模板组合为语音指令序列。生成后的语音指令 序列可文字、图像的形式在显示器显示W指示用户,或者W语音播放的方式通过扬声 器指示用户,也可文本、图像和语音播放结合的方式同时W显示器和扬声器指示用户。 用户在接收到指示后,根据指示语音,即发出响应语音。通过录音设备采集用户响应语音序 列。当语音指令序列为一串文字时,或者由语音模板组成时,可W对采集到的用户响应语音 序列进行音频分析和识别,所述音频分析可W为常规的音频内容分析和识别,将识别的结 果和语音指令序列进行对比,如果相同的部分所占的百分比超过一个预设的阔值,例如超 过90%,则判断所述用户响应语音序列来自活体人;当随机语音指令为一串文字时,可W 将所述识别的结果转换为文字,将所述语音内容转换为文字后和语音指令序列进行对比, 如果所述语音内容转换得到的文字和语音指令序列相符合的文字超过一个预设的阔值,例 如超过90%,则判断所述用户响应语音序列来自活体人。当随机语音指令序列为一串语音 片段时,可W对采集到的用户响应语音序列和语音指令序列进行波形匹配分析,如果响应 语音序列和随机语音指令序列的波形匹配度超过一个预设的阔值,则判断所述用户响应语 音序列来自活人。 阳161] 在一种可能的实施方式中,在结合图像分析和语音分析,同时对人的动作和语音 进行识别分析来判断用户是否为活体,则所述的生物特征活体检测方法,可W包括: 阳162] (el)生成随机动作序列指令;
[0163] (e2)将所述随机动作序列指令的代码转换成文本、视觉和/或听觉编码,并W视 觉画面、听觉声音或二者结合的方式呈现;
[0164] (e3)采集用户响应图像序列; 阳1化](e4)分析所述响应图像序列中用户的响应动作序列; 阳166] (e5)判断所述响应动作序列是否符合所述随机动作序列指令对应的动作序列,计 算动作总体符合度; 阳167] (e6)生成随机语音指令;
[0168] (e7)将所述随机语音序列指令的代码转换成文本、视觉和/或听觉编码,并W视 觉画面、听觉声音或二者结合的方式呈现;
[0169] (e8)采集用户响应语音序列; 阳170] (e9)分析所述响应语音序列中用户的响应语音; 阳171] (elO)计算所述响应语音序列的语音内容符合度,即将响应语音序列内容和随机 语音指令序列对比,根据对比的情况,为响应语音序列的每个语音设置不同的权值,将每个 语音的权值相加,得到语音内容符合度; 阳172] (ell)计算总体符合度二动作总体符合度+W2X语音内容符合度=动作类型符合 度+wl X动作时间符合度+W2X语音内容符合度,其中wl、w2为权值; 阳173] (el2)将所述总体符合度与第Ξ预设阔值比较,如果大于第Ξ预设阔值,则判断所 述响应动作序列来自活体人,否则不认为来自活体人。
[0174] 通过W上的方法实施例的描述,所属领域的技术人员可W清楚地了解到本申请可 借助软件加必需的通用硬件平台的方式来实现,当然也可W通过硬件,但很多情况下前者 是更佳的实施方式。基于运样的理解,本申请的技术方案本质上或者说对现有技术做出贡 献的部分可软件产品的形式体现出来,并存储在一个存储介质中,包括若干指令用W 使得一台智能设备执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质 包括:只读存储器(ROM)、随机存取存储器(RAM)、磁碟或者光盘等各种可W存储数据和程 序代码的介质。
[0175]图2为本申请一示例性实施例示出的一种生物特征活体检测系统的结构示意图。 如图2所示,所述系统包括: 阳176] 动作序列指令生成单元U201,用于生成随机动作序列指令;
[0177] 动作指令呈现单元U202,包括显示器和扬声器,用于先将所述随机动作序列指令 的代码转换成文本、视觉和/或听觉编码,然后将其做视觉画面、听觉声音或二者结合的方 式呈现;
[0178] 图像采集单元U203,用于采集用户响应人脸图像序列; 阳179] 响应动作呈现单元U204,用于将所述响应图像序列与所述随机动作序列指令同步 进行视觉呈现; 阳180] 动作分析单元U205,用于分析所述响应人脸图像序列中用户的响应动作序列; 阳181] 动作符合度判断单元U206,用于判断所述响应动作序列是否符合所述随机动作序 列指令对应的动作序列,如果符合,则判断所述响应动作序列来自活体人。 阳182] 其中,所述的生物特征活体检测系统,还可W包括: 阳183] 语音指令生成单元,用于生成随机语音指令;
[0184] 语音指令呈现单元,包括显示器和扬声器,用于先将所述随机语音序列指令的代 码转换成文本、视觉和/或听觉编码,然后将其做视觉画面、听觉声音或二者结合的方式呈 现;
[0185] 语音采集单元,用于采集用户响应语音序列; 阳186] 语音分析单元,用于分析所述响应语音序列中用户的响应语音; 阳187] 语音符合度判断单元,用于判断所述响应语音序列是否符合所述语音指令对应的 语音序列,如果符合,则判断所述响应语音序列来自活体人。
[0188] 其中,在一种可能的实施方式中,所述动作序列指令生成单元在随机动作序列指 令中为每个动作指定时间戳,所述时间戳用于标识每个动作的动作时间或每个动作的起始 时间和结束时间,所述时间戳随机生成。
[0189] 其中,所述动作指令呈现单元把随机动作序列指令的代码转换成文本和/或视觉 编码,例如"张嘴"、"闭嘴","头左转"、"低头V吧眼"等动作的文本字样、图像、动画形式, 然后将其W视觉的方式通过显示器呈现给用户;随机动作序列指令的代码转换成文本和/ 或听觉编码,转换成文本,然后通过TTS (Text To Speech)引擎转换成语音,例如通过扬声 器语音播报"张嘴"、?巧嘴","头左转"、"低头"、"巧眼"等声音;或者视觉和听觉二者结合的 方式呈现给用户。通过视听觉呈现提示,帮助用户理解指令,W便及时地根据指示做出相应 的动作。
[0190] 其中,所述图像采集单元,摄像头或者其他图像视频拍摄设备,拍摄用户的动作, 从而采集到响应人脸图像序列,响应人脸图像序列中每一个图像为拍摄得到的视频帖。 阳191] 其中,响应动作呈现单元,用于将所述响应图像序列与所述随机动作序列指令同 步进行视觉呈现,显示在屏幕上,及时反馈给用户,使用户能够调整自己的动作,使其与随 机动作序列指令一致。 阳192] 其中,所述动作分析单元,可W包括: 阳193] 人脸检测子单元,用于从响应动作序列中检测每张图像中的人脸;
[0194] 关键点定位子单元,用于对每张人脸进行关键点定位; 阳195] 头部姿态转角计算子单元,用于根据定位的人脸关键点计算头部姿态转角; 阳196] 人脸表情类型计算子单元,用于根据定位的人脸关键点计算人脸表情类型; 阳197] 动作序列识别子单元,用于根据所述头部姿态转角和所述人脸表情类型计算所述 响应动作序列。 阳19引所述动作符合度判断单元,可W包括: 阳199] 动作类型符合度计算子单元,比较所述计算所得的响应动作序列和所述随机动作 序列指令对应的动作序列,计算动作类型符合度; 阳200] 第一判断子单元,用于将所述动作类型符合度与第一预设阔值比较,如果所述动 作类型符合度大于第一预设阔值,则响应动作序列中人的响应动作类型符合所述随机动作 序列指令,判断所述响应动作序列来自活体人,否则不认为来自活体人。 阳201] 其中,所述动作分析单元,还包括: 阳202] 动作时间计算子单元,用于对所计算的所述响应动作序列中的每个动作,计算每 个动作的动作时间; 阳203] 动作时间符合度计算子单元,用于将每个动作的动作时间与随机生成的时间戳比 较,计算动作时间符合度; 阳204]动作总体符合度计算子单元,用于计算动作总体符合度,动作总体符合度=动作 类型符合度+WX动作时间符合度,其中W为权值; 阳205]第二判断子单元,用于将所述动作总体符合度与第二预设阔值比较,如果大于第 二预设阔值,则响应动作序列中人的响应动作符合所述动作序列指令对应的动作序列,判 断所述响应动作序列来自活体人,否则不认为来自活体人。 阳206] 本申请实施例提供的生物特征活体检测系统,在一种可能的实施方式中,还可W 包括: 阳207] 语音分析单元,用于识别所述响应语音序列内容; 阳20引语音符合度计算单元,用于计算所述响应语音序列的所述响应语音内容符合度; 阳209] 总体符合度计算单元,用于计算总体符合度,计算总体符合度=动作类型符合度 +W1X动作时间符合度+W2X语音内容符合度,其中wl、w2为权值;
[0210] 第Ξ判断单元,用于将所述总体符合度与第Ξ预设阔值比较,如果大于第Ξ预设 阔值,则判断所述响应动作序列来自活体人,否则不认为来自活体人。 阳211] 根据安全等级设定随机动作序列指令的复杂度和所述第一预设阔值、第二预设阔 值和第Ξ预设阔值的大小。
[0212] 图3为生物特征活体检测系统的随机动作序列指令可视化视觉呈现和随机语音 序列指令可视化视觉呈现的示意图。其中,(1),(2),(3)表示随机动作序列指令(左转45 度一正面一右转45度),同时用文字和图像进行呈现,(4)表示随机语音序列指令,用文字 形式呈现,其中示例为读出一句话,还可W读出一串随机数字。
[0213] 图4为显示器为竖屏时一种生物特征活体检测系统的随机动作序列指令和用户 响应图像序列同步视觉呈现的示意图。为了更好地引导被采集对象作出符合随机动作序列 指令的动作序列,将随机动作序列指令和采集的响应图像序列w视觉的方式同时呈现在显 示器上。对竖屏,将随机动作序列指令呈现在采集的响应图像序列的右上角,实时引导用户 做出相应的响应动作序列。其中图4中(1)至(4)表示正脸一侧脸一正脸一张嘴的随机动 作序列指令及相应的响应图像序列的呈现示意图。
[0214] 图5为显示器为横屏时一种生物特征活体检测系统的随机动作序列指令和用户 响应图像序列同步视觉呈现的示意图。其中图5中(1)至(4)表示正脸一侧脸一正脸一张 嘴的随机动作序列指令及相应的响应图像序列的呈现示意图。
[0215] 图6为随机动作序列指令的文本和响应图像序列同时视觉呈现的示意图,其中上 端逐条显示每条随机动作序列指令,下部分显示所采集的用户响应图像序列。
[0216] 图7为随机语音序列指令和随机动作序列指令与所采集的用户响应图像序列一 起同步显示的示意图。
[0217] 本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部 分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置或 系统实施例而言,由于其基本相似于方法实施例,所W描述得比较简单,相关之处参见方法 实施例的部分说明即可。W上所描述的装置及系统实施例仅仅是示意性的,其中所述作为 分离部件说明的单元可W是或者也可W不是物理上分开的,作为单元显示的部件可W是或 者也可W不是物理单元,即可W位于一个地方,或者也可W分布到多个网络单元上。可W根 据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术 人员在不付出创造性劳动的情况下,即可W理解并实施。
[021引需要说明的是,在本文中,诸如"第一"和"第二"等之类的关系术语仅仅用来将一 个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示运些实体或操作之 间存在任何运种实际的关系或者逆序。而且,术语"包括"、"包含"或者其任何其他变体意 在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、系统或者设备不仅包括那 些要素,而且还包括没有明确列出的其他要素,或者是还包括为运种过程、方法、系统或者 设备所固有的要素。在没有更多限制的情况下,由语句"包括一个……"限定的要素,并不 排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
[0219] W上所述仅是本申请的【具体实施方式】,使本领域技术人员能够理解或实现本申 请。对运些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的 一般原理可W在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请 将不会被限制于本文所示的运些实施例,而是要符合与本文所公开的原理和新颖特点相一 致的最宽的范围。
【主权项】
1. 一种生物特征活体检测方法,其特征在于,包括: 生成随机动作序列指令; 将所述随机动作序列指令的代码转换成文本、视觉和/或听觉编码,并以视觉画面、听 觉声音或二者结合的方式呈现; 采集用户响应图像序列; 将所述响应图像序列与所述随机动作序列指令同步进行视觉呈现; 分析所述响应图像序列中用户的响应动作序列; 判断所述响应动作序列是否符合所述随机动作序列指令对应的动作序列,如果符合, 则判断所述响应动作序列来自活体人。2. 如权利要求1所述的生物特征活体检测方法,其特征在于,还包括: 生成随机语音序列指令; 将所述随机语音序列指令的代码转换成文本、视觉和/或听觉编码,并以视觉画面、听 觉声音或二者结合的方式呈现; 采集用户响应语音序列; 分析所述响应语音序列中用户的响应语音; 判断所述响应语音是否符合所述随机语音序列指令对应的语音序列,如果符合,则判 断所述响应语音序列来自活体人。3. 如权利要求1所述的生物特征活体检测方法,其特征在于,在随机动作序列指令中 为每个动作指定时间戳,所述时间戳用于标识每个动作的动作时间或每个动作的起始时间 和结束时间,所述时间戳随机生成。4. 如权利要求1所述的生物特征活体检测方法,其特征在于,所述分析所述响应图像 序列中用户的响应动作序列,包括: 从响应图像序列中检测每张图像中的人脸; 对每张人脸进行关键点定位; 根据定位的人脸关键点计算头部姿态转角; 根据定位的人脸关键点计算人脸表情类型; 根据所述头部姿态转角和所述人脸表情类型得到用户的响应动作序列; 比较所述响应动作序列和所述随机动作序列指令对应的动作序列,计算动作类型符合 度; 将所述动作类型符合度与第一预设阈值比较,如果所述动作类型符合度大于所述第一 预设阈值,则判断所述响应动作序列来自活体人,否则不认为来自活体人。5. 如权利要求4所述的生物特征活体检测方法,其特征在于,所述分析所述响应图像 序列中用户的响应动作序列,还包括: 对所述响应动作序列中的每个动作,计算每个动作的动作时间; 比较所述计算的每个动作的动作时间与每个动作的时间戳,计算动作时间符合度; 计算动作总体符合度=动作类型符合度+wX动作时间符合度,其中w为权值; 将所述动作总体符合度与第二预设阈值比较,如果动作总体符合度大于第二预设阈 值,则判断所述响应动作序列来自活体人,否则不认为来自活体人。6. 如权利要求5所述的生物特征活体检测方法,其特征还在于,还包括: 识别所述响应语音序列内容; 计算所述响应语音序列的语音内容符合度; 计算总体符合度=动作类型符合度+wlX动作时间符合度+w2X语音内容符合度,其 中wl、w2为权值; 将所述总体符合度与第三预设阈值比较,如果总体符合度大于第三预设阈值,则判断 所述响应动作序列来自活体人,否则不认为来自活体人。7. 如权利要求4-6任一项所述的生物特征活体检测方法,其特征在于,根据安全等级 设定随机动作序列指令的复杂度和所述第一预设阈值、第二预设阈值和第三预设阈值的大 小。8. -种生物特征活体检测系统,其特征在于,包括: 动作序列指令生成单元,用于生成随机动作序列指令; 动作指令呈现单元,包括显示器和扬声器,用于先将所述随机动作序列指令的代码转 换成文本、视觉和/或听觉编码,并以视觉画面、听觉声音或二者结合的方式呈现; 图像采集单元,用于采集用户响应人脸图像序列; 响应动作呈现单元,用于将所述响应图像序列与所述随机动作序列指令同步进行视觉 呈现; 动作分析单元,用于分析所述响应人脸图像序列中用户的响应动作序列; 动作符合度判断单元,用于判断所述响应动作序列是否符合所述随机动作序列指令对 应的动作序列,如果符合,则判断所述响应动作序列来自活体人。9. 如权利要求8所述的生物特征活体检测系统,其特征在于,还包括: 语音指令生成单元,用于生成随机语音指令; 语音指令呈现单元,包括显示器和扬声器,用于先将所述随机语音序列指令的代码转 换成文本、视觉和/或听觉编码,并以视觉画面、听觉声音或二者结合的方式呈现; 语音采集单元,用于采集用户响应语音序列; 语音分析单元,用于分析所述响应语音序列中用户的响应语音; 语音符合度判断单元,用于判断所述响应语音是否符合所述随机语音序列指令对应的 语音序列,如果符合,则判断所述响应语音序列来自活体人。10. 如权利要求8所述的生物特征活体检测系统,其特征在于,在随机动作序列指令中 为每个动作指定时间戳,所述时间戳用于标识每个动作的动作时间或每个动作的起始时间 和结束时间,所述时间戳随机生成。11. 如权利要求8所述的生物特征活体检测系统,其特征在于,所述动作分析单元,包 括: 人脸检测子单元,用于从响应动作序列中检测每张图像中的人脸; 关键点定位子单元,用于对每张人脸进行关键点定位; 头部姿态转角计算子单元,用于根据定位的人脸关键点计算头部姿态转角; 人脸表情类型计算子单元,用于根据定位的人脸关键点计算人脸表情类型; 动作序列识别子单元,用于根据所述头部姿态转角和所述人脸表情类型得到用户的响 应动作序列; 所述动作符合度判断单元,包括: 动作类型符合度计算子单元,比较所述响应动作序列和所述随机动作序列指令对应的 动作序列,计算动作类型符合度; 第一判断子单元,用于将所述动作类型符合度与第一预设阈值比较,如果所述动作类 型符合度大于第一预设阈值,则响应动作序列中人的响应动作类型符合所述随机动作序列 指令,判断所述响应动作序列来自活体人,否则不认为来自活体人。12. 如权利要求10和11所述的生物特征活体检测系统,其特征在于,所述动作分析单 元,还包括: 动作时间计算子单元,用于对所述响应动作序列中的每个动作,计算每个动作的动作 时间; 动作时间符合度计算子单元,用于将所述计算的每个动作的动作时间与每个动作的时 间戳比较,计算动作时间符合度; 动作总体符合度计算子单元,用于计算动作总体符合度,动作总体符合度=动作类型 符合度+wX动作时间符合度,其中w为权值; 第二判断子单元,用于将所述动作总体符合度与第二预设阈值比较,如果大于第二预 设阈值,则响应动作序列中人的响应动作符合所述动作序列指令对应的动作序列,判断所 述响应动作序列来自活体人,否则不认为来自活体人。13. 如权利要求9所述的生物特征活体检测系统,其特征在于,还包括: 语音分析单元,用于识别所述响应语音序列内容; 语音符合度计算单元,用于计算所述响应语音序列的所述响应语音内容符合度; 总体符合度计算单元,用于计算总体符合度,计算总体符合度=动作类型符合度+wl X 动作时间符合度+w2X语音内容符合度,其中wl、w2为权值; 第三判断单元,用于将所述总体符合度与第三预设阈值比较,如果大于第三预设阈值, 则判断所述响应动作序列来自活体人,否则不认为来自活体人。14. 如权利要求8-13任一项所述的生物特征活体检测系统,其特征在于,根据安全等 级设定随机动作序列指令的复杂度和所述第一预设阈值、第二预设阈值和第三预设阈值的 大小。
【文档编号】G06F21/32GK105989264SQ201510053281
【公开日】2016年10月5日
【申请日】2015年2月2日
【发明人】邓琼
【申请人】北京中科奥森数据科技有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1