一种基于人脸和声纹的支付认证方法及终端与流程

文档序号:14613599发布日期:2018-06-05 21:26阅读:207来源:国知局
一种基于人脸和声纹的支付认证方法及终端与流程

本发明涉及电子支付技术领域,尤其涉及一种基于人脸和声纹的支付认证方法及终端。



背景技术:

随着互联网技术的不断发展,通过智能移动终端进行网上购物已成为了人们生活中必不可少的一件事情,这也极大的方便了人们的生活。由于网上购物涉及到用户的敏感信息,因此在网上购物并进行支付时需要较安全的支付认证方式;现在的支付认证方式主要为通过指纹或脸部识别进行支付认证,其存在以下缺点:生物特征易被盗取:指纹信息在交易人接触物品的时候比较容易套取,且非活体信息,脸部图像信息原本就是公开的,通过视频或拍照都很容易盗取;盗取的生物特征易用于攻击,采用盗取的指纹和脸部信息可以分别通过制作指模和图像合成的技术对支付设备进行攻击,从而达到盗刷的目的。



技术实现要素:

本发明所要解决的技术问题是:本发明提供一种基于人脸和声纹支付认证方法及终端,提高了支付认证的安全性。

为了解决上述技术问题,本发明提供了一种基于人脸和声纹的支付认证方法,包括以下步骤:

S1:根据人脸信息,判断人脸信息中所包括的人脸图像信息中是否存在大于预设第一阈值的高频信息;以及根据声纹信息,判断声纹信息中是否存在大于预设第二阈值的高频分量;

S2:若均否,则根据人脸图像信息及声纹信息进行支付认证。

本发明还提供了一种基于人脸和声纹的支付认证终端,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现以下步骤:

S1:根据人脸信息,判断人脸信息中所包括的人脸图像信息中是否存在大于预设第一阈值的高频信息;以及根据声纹信息,判断声纹信息中是否存在大于预设第二阈值的高频分量;

S2:若均否,则根据人脸图像信息及声纹信息进行支付认证。

本发明的有益效果为:

本发明提供了一种基于人脸和声纹的支付认证方法及终端,通过判断人脸图像信息中是否存在大于预设阈值的高频信息,能够防止通过计算机合成的图像信息对支付认证攻击的问题(由于通过计算机合成的图像,在脸部边缘、眼部边缘、嘴部边缘等合成拼接的地方出现大量空域的跳变,对应在频域则存在大量高频信息);同时,判断声纹信息中是否存在大于预设第二阈值的高频分量,能够防止通过拼接的录音信息进行支付认证(拼接的录音信息其在拼接段存在高频分量),通过上述方法,实现了在人脸和声纹识别中添加高频检测来防止脸部或录音合成攻击,并将人脸识别结合相对不易伪装的声纹进行支付认证,能够有效避免伪装攻击,使支付更加安全。

附图说明

图1为根据本发明实施例的一种基于人脸和声纹的支付认证方法的主要步骤示意图;

图2为根据本发明实施例的一种基于人脸和声纹的支付认证终端的结构示意图;

标号说明:

1、存储器;2、处理器。

具体实施方式

为详细说明本发明的技术内容、所实现目的及效果,以下结合实施方式并配合附图详予说明。

请参照图1,本发明提供了一种基于人脸和声纹的支付认证方法,包括以下步骤:

S1:根据人脸信息,判断人脸信息中所包括的人脸图像信息中是否存在大于预设第一阈值的高频信息;以及根据声纹信息,判断声纹信息中是否存在大于预设第二阈值的高频分量;

S2:若均否,则根据人脸图像信息及声纹信息进行支付认证。

从上述描述可知,本发明提供了一种基于人脸和声纹的支付认证方法,通过判断人脸图像信息中是否存在大于预设阈值的高频信息,能够防止通过计算机合成的图像信息对支付认证攻击的问题(由于通过计算机合成的图像,在脸部边缘、眼部边缘、嘴部边缘等合成拼接的地方出现大量空域的跳变,对应在频域则存在大量高频信息);同时,判断声纹信息中是否存在大于预设第二阈值的高频分量,能够防止通过拼接的录音信息进行支付认证(拼接的录音信息其在拼接段存在高频分量),通过上述方法,实现了在人脸和声纹识别中添加高频检测来防止脸部或录音合成攻击,并将人脸识别结合相对不易伪装的声纹进行支付认证,能够有效避免伪装攻击,使支付更加安全。

进一步的,所述S1之前还包括:

S01:显示支付验证时所需要的脸部指定动作信息及需要语音输入的指定文字信息;

S02:采集人脸信息的同时,同时声纹信息;所述人脸信息包括人脸视频信息及人脸图像信息;

S03:判断人脸视频信息中的人脸动作是否与指定动作一致,以及判断声纹信息对应的文字与指定文字信息对应的文字是否一致;

S04:若均一致,则执行步骤S1,否则支付认证失败。

从上述描述可知,采集的人脸信息为用户根据显示的指定动作信息进行相应的脸部动作时,通过摄像装置采集的人脸视频信息及人脸图像信息;采集的声纹信息为用户根据显示的指定文字信息进行语音输入所得到声纹信息,用户事先并不知晓上述指定的动作信息和指定的文字信息,通过上述的验证方式,提高了支付验证的安全性。

进一步的,所述S03和S04之间还包括:

判断所述人脸视频信息中唇语信息与声纹信息中的音频信息是否同步,若不同步,则支付认证失败;

若同步,则判断唇语信息对应的第一文字信息与指定文字信息是否一致。

从上述描述可知,通过上述方法,能够保证唇语信息与音频信息同步,并且保证唇语信息与指定文字信息相对应,从而使支付验证更加安全可靠。

进一步的,所述S02和S03之间还包括:

对所述人脸信息和声纹信息分别进行降噪和滤波处理。

从上述描述可知,通过上述方法能够提高数据处理的准确性。

进一步的,所述S01中显示支付验证时所需要的脸部指定动作信息及需要语音输入的指定文字信息具体为:

随机生成脸部指定动作信息及需要语音输入的指定文字信息,显示所述指定动作信息及指定文字信息。

从上述描述可知,通过上述方法,能够防止不法分子盗用上一次支持验证时的人脸信息进行支付验证,同时能够防止不法分子对用户支付时输入的语音进行录音,保证了支付的安全性。

进一步的,若在预设时间内人脸信息或声纹信息采集失败,则随机显示新的指定动作信息及新的指定文字信息,并重新采集人脸信息及声纹信息。

从上述描述可知,通过上述方法,能够防止支付认证信息被盗用,进一步提高了支付的安全性。

进一步的,所述S2之前还包括:

获取多份处于被胁迫状态的第一人脸图像信息,计算得到每一份第一人脸图像信息的第一特征参数;

拟合所有的第一特征参数,得到被胁迫状态与第一特征参数之间的第一数学模型;

获取多份处于被胁迫状态的第一声纹信息,计算得到每一份第一声纹信息的第二特征参数;

拟合所有的第二特征参数,得到被胁迫状态与特征参数之间的第二数学模型。

从上述描述可知,通过上述方法能够建立出处于被胁迫状态下声纹信息的第一数学模型,以及被胁迫状态下人脸图像信息的第二数学模型,以便后续能准确判断用户所处的状态,提高了支付的安全性。

进一步的,所述S2之前还包括:

计算获取得到的人脸信息中人脸图像信息的人脸特征参数;

计算获取得到的声纹信息的声纹特征参数;

根据所述第一数学模型和人脸特征参数,判断用户是否处于被胁迫状态;

根据第二数学模型和声纹特征参数,判断用户是否处于被胁迫状态。

从上述描述可知,通过上述方法,能够准确地判断用处是否处于被胁迫状态,以防止用户在被胁迫状态下,被不法分子盗用用户信息,使用户带来巨大损失的问题。

进一步的,所述S2具体为:

若均否,则加密所述人脸特征参数及声纹特征参数,并发送至服务器,以使服务器将人脸特征参数与预存人脸信息对应的第一人脸特征参数进行显著性分析,以及将声纹特征参数与预存声纹信息对应的第一声纹特征参数进行显著性分析,得到显著性分析结果;

根据所述显著性分析结果,判断支付认证是否通过。

从上述描述可知,传输过程中将人脸特征参数及声纹特征参数进行加密传输,能够防止用户数据被盗,使用户造成一定的经济损失的问题;同时通过显著性分析,能够准确地判断出人脸特征参数与预存人脸信息对应的特征参数是否匹配,并能准确判断声纹特征参数与预存声纹信息对应的特征参数是否匹配;上述双重验证的方式,提高了支付认证的安全性。

进一步的,所述S1具体为:

计算所述人脸图像信息对应的图像频域信息,判断所述图像频域信息中是否存在大于预设阈值的高频信息;

根据所述声纹信息,计算得到高频分量集合,判断所述高频分量集合中是否存在大于预设阈值的高频分量。

从上述描述可知,通过上述方法,能够准确计算出声纹信息是否包括高频分量,以防止通过合成的录音用于支付验证;并且能准确判断出人脸图像信息中是否包括高频信息,以防止通过计算机合成的人脸图像信息用于支付验证,上述方法提高了支付的安全性。

进一步的,所述S1之前还包括:

对预设的交易终端与服务器进行鉴权判断,若鉴权失败,则支付认证失败,结束交易;

若鉴权成功,则获取所述交易终端的当前位置信息;

加密所述当前位置信息,得到位置加密信息;

发送所述位置加密信息至服务器,以使得服务器将所述位置加密信息保存在预设的安全日志信息中。

从上述描述可知,交易过程中存储交易时所处的位置信息,使交易位置可追溯。

请参照图2,本发明提供了一种基于人脸和声纹的支付认证终端,包括存储器1、处理器2及存储在存储器1上并可在处理器2上运行的计算机程序,其特征在于,所述处理器2执行所述程序时实现以下步骤:

S1:根据人脸信息,判断人脸信息中所包括的人脸图像信息中是否存在大于预设第一阈值的高频信息;以及根据声纹信息,判断声纹信息中是否存在大于预设第二阈值的高频分量;

S2:若均否,则根据人脸图像信息及声纹信息进行支付认证。

进一步的,所述的一种基于人脸和声纹的支付认证终端,所述S1之前还包括:

S01:显示支付验证时所需要的脸部指定动作信息及需要语音输入的指定文字信息;

S02:采集人脸信息的同时,同时声纹信息;所述人脸信息包括人脸视频信息及人脸图像信息;

S03:判断人脸视频信息中的人脸动作是否与指定动作一致,以及判断声纹信息对应的文字与指定文字信息对应的文字是否一致;

S04:若均一致,则执行步骤S1,否则支付认证失败。

进一步的,所述的一种基于人脸和声纹的支付认证终端,所述S03和S04之间还包括:

判断所述人脸视频信息中唇语信息与声纹信息中的音频信息是否同步,若不同步,则支付认证失败;

若同步,则判断唇语信息对应的第一文字信息与指定文字信息是否一致。

进一步的,所述的一种基于人脸和声纹的支付认证终端,所述S02和S03之间还包括:

对所述人脸信息和声纹信息分别进行降噪和滤波处理。

进一步的,所述的一种基于人脸和声纹的支付认证终端,所述S01中显示支付验证时所需要的脸部指定动作信息及需要语音输入的指定文字信息具体为:

随机生成脸部指定动作信息及需要语音输入的指定文字信息,显示所述指定动作信息及指定文字信息。

进一步的,所述的一种基于人脸和声纹的支付认证终端,若在预设时间内人脸信息或声纹信息采集失败,则随机显示新的指定动作信息及新的指定文字信息,并重新采集人脸信息及声纹信息。

进一步的,所述的一种基于人脸和声纹的支付认证终端,所述S1之前还包括:

获取多份处于被胁迫状态的第一人脸图像信息,计算得到每一份第一人脸图像信息的第一特征参数;

拟合所有的第一特征参数,得到被胁迫状态与第一特征参数之间的第一数学模型;

获取多份处于被胁迫状态的第一声纹信息,计算得到每一份第一声纹信息的第二特征参数;

拟合所有的第二特征参数,得到被胁迫状态与特征参数之间的第二数学模型。

进一步的,所述的一种基于人脸和声纹的支付认证终端,所述S2之前还包括:

计算获取得到的人脸信息中人脸图像信息的人脸特征参数;

计算获取得到的声纹信息的声纹特征参数;

根据所述第一数学模型和人脸特征参数,判断用户是否处于被胁迫状态;

根据第二数学模型和声纹特征参数,判断用户是否处于被胁迫状态。

进一步的,所述的一种基于人脸和声纹的支付认证终端,所述S2具体为:

若均否,则加密所述人脸特征参数及声纹特征参数,并发送至服务器,以使服务器将人脸特征参数与预存人脸信息对应的第一人脸特征参数进行显著性分析,以及将声纹特征参数与预存声纹信息对应的第一声纹特征参数进行显著性分析,得到显著性分析结果;

根据所述显著性分析结果,判断支付认证是否通过。

进一步的,所述的一种基于人脸和声纹的支付认证终端,所述S1之前还包括:

对预设的交易终端与服务器进行鉴权判断,若鉴权失败,则支付认证失败,结束交易;

若鉴权成功,则获取所述交易终端的当前位置信息;

加密所述当前位置信息,得到位置加密信息;

发送所述位置加密信息至服务器,以使得服务器将所述位置加密信息保存在预设的安全日志信息中。

请参照图1,本发明的实施例一为:

本发明提供了一种基于人脸和声纹的支付认证方法,包括以下步骤:

S0:随机生成脸部指定动作信息及需要语音输入的指定文字信息,显示所述指定动作信息及指定文字信息;采集人脸信息的同时,同时声纹信息;所述人脸信息包括人脸视频信息及人脸图像信息;对所述人脸信息和声纹信息分别进行降噪和滤波处理后,判断人脸视频信息中的人脸动作是否与指定动作一致,以及判断声纹信息对应的文字与指定文字信息对应的文字是否一致;判断所述人脸视频信息中唇语信息与声纹信息中的音频信息是否同步,若不同步,则支付认证失败;若同步,则判断唇语信息对应的第一文字信息与指定文字信息是否一致;若均一致,则执行步骤S1,否则支付认证失败;

其中,若在预设时间内人脸信息和声纹信息采集失败,则重新执行步骤S0;

S1:根据人脸信息,判断人脸信息中所包括的人脸图像信息中是否存在大于预设第一阈值的高频信息;以及根据声纹信息,判断声纹信息中是否存在大于预设第二阈值的高频分量;

S2:若均否,则根据人脸图像信息及声纹信息进行支付认证。

本发明的实施例二为:

本发明提供了一种基于人脸和声纹的支付认证方法,包括以下步骤:

获取多份处于被胁迫状态的第一人脸图像信息,计算得到每一份第一人脸图像信息的第一特征参数;拟合所有的第一特征参数,得到被胁迫状态与第一特征参数之间的第一数学模型;

其中“拟合所有的第一特征参数,得到被胁迫状态与第一特征参数之间的第一数学模型”具体为:

读取每一份样本(人脸图像信息)对应的第一特征参数,通过深度学习卷积神经网络的方法对所有的第一特征参数进行拟合,即定义神经网络、收集原始数据、分类训练、校正、输出结果,得到被胁迫状态与第一特征参数之间的第一数学模型;

获取多份处于被胁迫状态的第一声纹信息,计算得到每一份第一声纹信息的第二特征参数;拟合所有的第二特征参数,得到被胁迫状态与特征参数之间的第二数学模型;

其中“拟合所有的第二特征参数,得到被胁迫状态与第一特征参数之间的第二数学模型”具体为:

读取每一份样本(声纹信息)对应的第二特征参数,通过深度学习卷积神经网络的方法对所有的第二特征参数进行拟合,即定义神经网络、收集原始数据、分类训练、校正、输出结果,得到被胁迫状态与第二特征参数之间的第二数学模型;

在支付时,先对预设的交易终端与服务器进行鉴权判断,若鉴权失败,则支付认证失败,结束交易;

若鉴权成功,则获取所述交易终端的当前位置信息;加密所述当前位置信息,得到位置加密信息;发送所述位置加密信息至服务器,以使得服务器将所述位置加密信息保存在预设的安全日志信息中;

在鉴权成功后,随机生成脸部指定动作信息及需要语音输入的指定文字信息,显示所述指定动作信息及指定文字信息;采集人脸信息的同时,同时声纹信息;所述人脸信息包括人脸视频信息及人脸图像信息;对所述人脸信息和声纹信息分别进行降噪和滤波处理后,判断人脸视频信息中的人脸动作是否与指定动作一致,以及判断声纹信息对应的文字与指定文字信息对应的文字是否一致;判断所述人脸视频信息中唇语信息与声纹信息中的音频信息是否同步,若不同步,则支付认证失败;若同步,则判断唇语信息对应的第一文字信息与指定文字信息是否一致;若存在不一致,则支付认证失败,否则执行以下步骤:

根据人脸信息,判断人脸信息中所包括的人脸图像信息中是否存在大于预设第一阈值的高频信息;以及根据声纹信息,判断声纹信息中是否存在大于预设第二阈值的高频分量;

计算获取得到的人脸信息中人脸图像信息的人脸特征参数;计算获取得到的声纹信息的声纹特征参数;根据所述第一数学模型和人脸特征参数,判断用户是否处于被胁迫状态;根据第二数学模型和声纹特征参数,判断用户是否处于被胁迫状态。

若均否,则加密所述人脸特征参数及声纹特征参数,并发送至服务器,以使服务器将人脸特征参数与预存人脸信息对应的第一人脸特征参数进行显著性分析,以及将声纹特征参数与预存声纹信息对应的第一声纹特征参数进行显著性分析,得到显著性分析结果;

根据所述显著性分析结果,判断支付认证是否通过。

请参照图2,本发明的实施例三为:

本发明提供了一种基于人脸和声纹的支付认证终端,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现以下步骤:

S0:随机生成脸部指定动作信息及需要语音输入的指定文字信息,显示所述指定动作信息及指定文字信息;采集人脸信息的同时,同时声纹信息;所述人脸信息包括人脸视频信息及人脸图像信息;对所述人脸信息和声纹信息分别进行降噪和滤波处理后,判断人脸视频信息中的人脸动作是否与指定动作一致,以及判断声纹信息对应的文字与指定文字信息对应的文字是否一致;判断所述人脸视频信息中唇语信息与声纹信息中的音频信息是否同步,若不同步,则支付认证失败;若同步,则判断唇语信息对应的第一文字信息与指定文字信息是否一致;若均一致,则执行步骤S1,否则支付认证失败;

其中,若在预设时间内人脸信息和声纹信息采集失败,则重新执行步骤S0;

S1:根据人脸信息,判断人脸信息中所包括的人脸图像信息中是否存在大于预设第一阈值的高频信息;以及根据声纹信息,判断声纹信息中是否存在大于预设第二阈值的高频分量;

S2:若均否,则根据人脸图像信息及声纹信息进行支付认证。

本发明的实施例四为:

本发明提供了一种基于人脸和声纹的支付认证终端,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现以下步骤:

获取多份处于被胁迫状态的第一人脸图像信息,计算得到每一份第一人脸图像信息的第一特征参数;拟合所有的第一特征参数,得到被胁迫状态与第一特征参数之间的第一数学模型;

其中“拟合所有的第一特征参数,得到被胁迫状态与第一特征参数之间的第一数学模型”具体为:

读取每一份样本(人脸图像信息)对应的第一特征参数,通过深度学习卷积神经网络的方法对所有的第一特征参数进行拟合,即定义神经网络、收集原始数据、分类训练、校正、输出结果,得到被胁迫状态与第一特征参数之间的第一数学模型;

获取多份处于被胁迫状态的第一声纹信息,计算得到每一份第一声纹信息的第二特征参数;拟合所有的第二特征参数,得到被胁迫状态与特征参数之间的第二数学模型;

其中“拟合所有的第二特征参数,得到被胁迫状态与第一特征参数之间的第二数学模型”具体为:

读取每一份样本(声纹信息)对应的第二特征参数,通过深度学习卷积神经网络的方法对所有的第二特征参数进行拟合,即定义神经网络、收集原始数据、分类训练、校正、输出结果,得到被胁迫状态与第二特征参数之间的第二数学模型;

在支付时,先对预设的交易终端与服务器进行鉴权判断,若鉴权失败,则支付认证失败,结束交易;

若鉴权成功,则获取所述交易终端的当前位置信息;加密所述当前位置信息,得到位置加密信息;发送所述位置加密信息至服务器,以使得服务器将所述位置加密信息保存在预设的安全日志信息中;

在鉴权成功后,随机生成脸部指定动作信息及需要语音输入的指定文字信息,显示所述指定动作信息及指定文字信息;采集人脸信息的同时,同时声纹信息;所述人脸信息包括人脸视频信息及人脸图像信息;对所述人脸信息和声纹信息分别进行降噪和滤波处理后,判断人脸视频信息中的人脸动作是否与指定动作一致,以及判断声纹信息对应的文字与指定文字信息对应的文字是否一致;判断所述人脸视频信息中唇语信息与声纹信息中的音频信息是否同步,若不同步,则支付认证失败;若同步,则判断唇语信息对应的第一文字信息与指定文字信息是否一致;若存在不一致,则支付认证失败,否则执行以下步骤:

根据人脸信息,判断人脸信息中所包括的人脸图像信息中是否存在大于预设第一阈值的高频信息;以及根据声纹信息,判断声纹信息中是否存在大于预设第二阈值的高频分量;

计算获取得到的人脸信息中人脸图像信息的人脸特征参数;计算获取得到的声纹信息的声纹特征参数;根据所述第一数学模型和人脸特征参数,判断用户是否处于被胁迫状态;根据第二数学模型和声纹特征参数,判断用户是否处于被胁迫状态。

若均否,则加密所述人脸特征参数及声纹特征参数,并发送至服务器,以使服务器将人脸特征参数与预存人脸信息对应的第一人脸特征参数进行显著性分析,以及将声纹特征参数与预存声纹信息对应的第一声纹特征参数进行显著性分析,得到显著性分析结果;

根据所述显著性分析结果,判断支付认证是否通过。

本发明的实施例五为:

本发明提供了一种POS机,包括MCU(微控制模块)、摄像头、麦克风和液晶屏,所述MCU分别与摄像头、麦克风和液晶屏电连接;

1)出厂前,POS的软件经过大量的机器学习训练,包括上万份正常情绪下的人脸信息与被胁迫的人脸信息以及上万份正常声音信息和被胁迫状态下的声音信息。识别软件通过对每一份训练样本进行特定参数的读取,通过对所有训练样本利用深度学习卷积神经网络的方法拟合成一个计算公式(主要步骤有:定义神经网络、收集原始数据、分类训练、校正、输出结果),得出这些参数与情绪的关系,从而使得人脸识别与声纹图识别的软件具有识别信息来源是否处于胁迫的能力。

2)POS与交易后台进行鉴权:若鉴权失败,则表示POS没有交易权限,结束交易;若鉴权成功,则表示POS有交易权限,开启POS与交易后台的加密,若POS机内置有无线模块,则此时加密上传当前基站位置,作为交易后台的安全日志的内容保存下来。

3)POS机内部MCU随机生成制定的文字信息,通过液晶屏提示交易人使用麦克风念出对应文字信息,同时MCU随机生成脸部指定动作(包括眨眼、张嘴、转头等动作),通过液晶屏提示用户通过摄像头采集该指定动作的人脸信息。

4)摄像头采集交易人的人脸信息,同时,麦克风采集交易人的声音信息。采集声音信息的同时仍旧采集人脸信息,以便进行唇语计算。

5)MCU对人脸信息进行预处理,包括降噪和归一化处理等。

6)MCU检查人脸信息合法性,包括检查人脸动作是否与提示一致、检查是否存在超过阈值的高频信息,是否不处于紧张害怕的情绪、唇语是否与提示信息相一致、唇语是否与录音信息同步,若检查不通过,则判为非法信息,予以拒绝,结束交易。

7)MCU计算人脸信息特征值,包括脸部的眼、鼻、口等的几何特征等。

8)MCU将人脸信息特征值加密后传给交易后台。

9)交易后台将上传的人脸信息特征值与银行预留的持卡人人脸信息进行显著性分析,根据分析结果判断是否允许交易:若显著性不足,则表明人脸识别失败,告知POS结束交易;若显著性明显,则表明人脸识别成功,告知POS允许交易。

10)MCU对声音信息进行预处理,包括降噪等处理等。

11)MCU检查声音合法性,包括检查声音内容是否与提示一致、检查是否存在超过阈值的高频信息、情绪是否不处于紧张害怕的情绪,若检查不通过,则判为非法信息,予以拒绝,结束交易。

12)MCU计算声纹特征信息,即MFCC(Mel Frequency Cepstrum Coefficients,美尔频率倒谱系数)。

13)MCU将声纹特征值加密后传给交易后台。

14)交易后台将上传的声纹特征值与银行预留的持卡人声纹信息进行显著性分析:若显著性不足,则表示声纹识别失败,告知POS结束交易;若显著性明显,则表示声纹识别成功,进行后台交易,并将交易结果告知POS。

15)POS机将交易结果提示给交易人。

综上所述,本发明提供的一种基于人脸和声纹的支付认证方法及终端,通过判断声纹信息中是否存在大于预设第二阈值的高频分量,能够防止通过拼接的录音信息进行支付认证(拼接的录音信息其在拼接段存在高频分量);于通过计算机合成的图像,在脸部边缘、眼部边缘、嘴部边缘等合成拼接的地方出现大量空域的跳变,对应在频域则存在大量高频信息,故通过判断人脸图像信息中是否存在大于预设阈值的高频信息,能够防止通过计算机合成的图像信息对支付认证攻击的问题;同时本发明通过对人脸信息及声纹信息能够有效地判断用户是否处于被胁迫状态,使支付更加安全可靠;通过人脸与声纹相结合的方法可以很大程度降低盗用风险,加强交易安全性和可靠性。持卡人的人脸信息与声纹信息作为敏感信息通过加密方式传输至服务器,只允许单向上行传输加密的特征参数,避免了敏感信息泄露。上述方法,实现了在人脸和声纹识别中添加高频检测来防止脸部或录音合成攻击,并将人脸识别结合相对不易伪装的声纹进行支付认证,能够有效避免伪装攻击,使支付更加安全。

以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等同变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1