风控模型训练方法、风险识别方法、装置、设备及介质与流程

文档序号:15388563发布日期:2018-09-08 00:51阅读:213来源:国知局

本发明涉及风险识别领域,尤其涉及一种风控模型训练方法、风险识别方法装置、设备及介质。



背景技术:

在金融行业,每一笔贷款资金的发放均需进行风险控制(以下简称风控),以确定能否给贷款人发放贷款。传统的风控过程,主要采用信审人与贷款人进行面对面交流的方式进行,但是在面对面的交流过程中,信审人可能因为注意力不集中或者对人的面部表情了解不深,忽略贷款人面部的一些细微的表情变化,这些细微的表情变化可能反映贷款人交流时的心理活动(如说谎)。部分金融机构逐步采用风控模型识别贷款人是否说谎,以辅助进行贷款风控。当前的风控模型需要使用一系列的微表情识别模型抓取人脸的面部特征,进而基于这些细微的表情变化反映贷款人在贷款时的心理活动,以达到风控的目的,但在训练这些微表情识别模型时采用通用的神经网络,使得模型的准确率不高且识别效率低。



技术实现要素:

本发明实施例提供一种风控模型训练方法、装置、设备及介质,以解决当前风险识别模型需要采用一系列微表情识别模型进行识别,导致识别效率低的问题。

本发明实施例提供一种风险识别方法,以解决当前风险识别模型采用通用的神经网络模型进行训练,使得模型识别准确率不高的问题。

第一方面,本发明实施例提供一种风控模型训练方法,包括:

对原始视频数据进行标注,获取正负样本;

对所述正负样本进行分帧和人脸检测,获取训练人脸图片;

对所述训练人脸图片按照预设数量进行分组,获取至少一组目标训练数据;所述目标训练数据包括连续n帧的所述训练人脸图片;

对所述目标训练数据按照预设比例进行划分,获取训练集和测试集;

将所述训练集中每一组所述目标训练数据输入到卷积神经网络-长短时递归神经网络模型中进行训练,获取原始风控模型;

采用所述测试集中每一组所述目标训练数据对所述原始风控模型进行测试,获取目标风控模型。

第二方面,本发明实施例提供一种风控模型训练装置,包括:

正负样本获取模块,用于对原始视频数据进行标注,获取正负样本;

训练人脸图片获取模块,用于对所述正负样本进行分帧和人脸检测,获取训练人脸图片;

目标训练数据获取模块,用于对所述训练人脸图片按照预设数量进行分组,获取至少一组目标训练数据;所述目标训练数据包括连续n帧的所述训练人脸图片;

目标训练数据划分模块,用于对所述目标训练数据按照预设比例进行划分,获取训练集和测试集;

原始风控模型获取模块,用于将所述训练集中每一组所述目标训练数据输入到卷积神经网络-长短时递归神经网络模型中进行训练,获取原始风控模型;

目标风控模型获取模块,用于采用所述测试集中每一组所述目标训练数据对所述原始风控模型进行测试,获取目标风控模型。

第三方面,本发明实施例提供一种风险识别方法,包括:

获取待识别视频数据;

采用人脸检测模型对所述待识别视频数据进行人脸检测,获取待识别人脸图片;

对所述待识别人脸图片进行分组,获取至少一组目标人脸图片;

采用第一方面所述风控模型训练方法获取的目标风控模型对至少一组所述目标人脸图片进行识别,获取每一组所述目标人脸图片对应的风险识别概率;

基于所述风险识别概率,获取风险识结果。

第四方面,本发明实施例提供一种风险识别装置,包括:

待识别视频数据获取模块,用于获取待识别视频数据;

待识别人脸图片获取模块,用于采用人脸检测模型对所述待识别视频数据进行人脸检测,获取待识别人脸图片;

目标人脸图片获取模块,用于对所述待识别人脸图片进行分组,获取至少一组目标人脸图片;

风险识别概率获取模块,用于采用第一方面所述风控模型训练方法获取的目标风控模型对至少一组所述目标人脸图片进行识别,获取每一组所述目标人脸图片对应的风险识别概率;

风险识结果获取模块,用于基于所述风险识别概率,获取风险识结果。

第五方面,本发明实施例提供一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现第一方面所述风控模型训练方法的步骤;或者,所述处理器执行所述计算机程序时实现第三方面所述风险识别方法的步骤。

第六方面,本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现第一方面所述风控模型训练方法的步骤;或者,所述计算机程序被处理器执行时实现第三方面所述风险识别方法的步骤。

本发明实施例提供的风控模型训练方法、装置、设备及介质中,先对原始视频数据进行标注,获取正负样本,以方便模型训练,提高模型训练的效率。然后,对正负样本进行分帧和人脸检测,获取包含人面部特征的图片即训练人脸图片,以使风控模型能够基于训练人脸图片提取微表情特征,并进行深度学习,提高风控模型的识别准确率。对训练人脸图片按照预设数量进行分组,获取至少一组目标训练数据;目标训练数据包括连续n帧的所述训练人脸图片;将训练集中每一组目标训练数据输入到卷积神经网络-长短时递归神经网络模型中进行训练,获取原始风控模型,无需采用一系列通用的微表情识别模型对训练人脸图片进行识别,只需将每一组目标训练数据直接输入到模型中卷积神经网络-长短时递归神经网络模型中即可进行训练,提高模型训练的效率。最后,采用测试集中每一组目标训练数据对原始风控模型进行测试,获取目标风控模型,以使目标风控模型的识别效果更加精准。

本发明实施例提供一种风险识别方法、装置、设备及介质中,本实施例中,先通过视频聊天的方式对目标客户进行提问,以获取目标客户回复的视频数据即待识别视频数据,以使信审过程智能化,无需信审人与目标客户进行面对面交流,以节省人工成本。然后,用人脸检测模型对待识别视频数据进行人脸检测,进而提取包含有人脸的视频图像即待识别人脸图片,对待识别人脸图片进行分组,获取至少一组目标人脸图片,提高了模型识别的准确率。采用目标风控模型对至少一组目标人脸图片进行识别,获取每一组目标人脸图片对应的风险识别概率,提高了目标风控模型的识别效率和识别准确率。

附图说明

为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1是本发明实施例1中提供的风控模型训练方法的一流程图。

图2是图1中步骤s12的一具体示意图。

图3是图1中步骤s15的一具体示意图。

图4是图3中步骤s153的一具体示意图。

图5是本发明实施例2中提供的风控模型训练装置的一原理框图。

图6是本发明实施例3中提供的风险识别方法的一流程图。

图7是本发明实施例4中提供的风险识别装置的一原理框图。

图8是本发明实施例6中提供的计算机设备的一示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

实施例1

图1示出本实施例中风控模型训练方法的流程图。该风控模型训练方法可应用在银行、证券、保险等金融机构上,以便采用训练好的风控模型辅助信审人对贷款人进行风险控制,从而确定能否给该贷款人发放贷款。如图1所示,该风控模型训练方法包括如下步骤:

s11:对原始视频数据进行标注,获取正负样本。

其中,原始视频数据是由互联网或第三方机构/平台所公开的数据集中获取的开源视频数据,其包括说谎视频数据和未说谎视频数据。具体地,对原始视频数据中进行谎言标注,即对说谎视频数据标注为“0”,未说谎视频数据标注为“1”,以获取正负样本,方便模型训练,提高模型训练的效率。

本实施例中,正负样本的比例设置为1:1,即获取同等比例的说谎视频数据和未说谎视频数据,能够有效防止模型训练过拟合的情况,以使通过正负样本训练获得的风控模型的识别效果更加精准。

s12:对正负样本进行分帧和人脸检测,获取训练人脸图片。

其中,训练人脸图片是对正负样本进行分帧和人脸检测所得到的包含人的面部特征的图片。由于本实施例中的风控模型是基于微表情特征进行训练的,因此,需要对正负样本进行分帧和人脸检测,获取包含人的面部特征的图片即为训练人脸图片,以便采用训练人脸图片进行模型训练,以使风控模型能够基于训练人脸图片提取微表情特征,并进行深度学习,提高风控模型的识别准确率。

s13:对训练人脸图片按照预设数量进行分组,获取至少一组目标训练数据;目标训练数据包括连续n帧的训练人脸图片。

其中,按照预设数量进行分组,获取至少一组目标训练数据,使每一组目标训练数据中包含连续n帧的训练人脸图片,以便从连续n帧的训练人脸图片中获取人脸的微表情特征变化,以使训练人脸图片具有时序性,从而增加目标风控模型的准确率。

本实施例中,预设数量的范围可设置为[50,200],其原因在于,若将小于等于50帧的训练人脸图片作为训练集中一组训练数据,则会由于训练人脸图片过少,不能表现出一个人撒谎的面部特征的变化过程,导致风控模型的识别准确率不高。若将大于等于200帧的训练人脸图片作为训练集中的一组训练数据,则会导致模型训练的时间过长,降低模型训练的效率。本实施例中,按照每一百帧训练人脸图片作为一组训练数据进行模型训练,提高模型的训练效率和训练得到的风控模型的识别准确率。

s14:对目标训练数据按照预设比例进行划分,获取训练集和测试集。

其中,预设比例是预先设定好的,用于对训练人脸图片进行分类的比例。该预设比例可以是根据历史经验获取的比例。其中,训练集(trainingset)是学习样本数据集,是通过匹配一些参数来建立分类器,即采用训练集中的目标训练数据来训练机器学习模型,以确定机器学习模型的参数。测试集(testset)是用于测试训练好的机器学习模型的分辨能力,如识别率。本实施例中,可按照9:1的比例对训练人脸图片进行划分,即可将90%的训练人脸图片作为训练集,剩余10%的数据作为测试集。

s15:将训练集中每一组目标训练数据输入到卷积神经网络-长短时递归神经网络模型中进行训练,获取原始风控模型。

其中,卷积神经网络-长短时递归神经网络模型是由卷积神经网络模型和长短时递归神经网络模型相结合所得到的模型。可以理解地,卷积神经网络-长短时递归神经网络模型相当于卷积神经网络与长短时递归神经网络模型相连接形成的模型。

卷积神经网络(convolutionalneuralnetwork,cnn))是局部连接网络。相对于全连接网络其最大的特点就是局部连接性和权值共享性。对于一副图像中的某个像素p来说,离像素p越近的像素对其影响也就越大(局部连接性)。另外,根据自然图像的统计特性,某个区域的权值也可以用于另一个区域,即权值共享性。权值共享可以理解为卷积核共享,在卷积神经网络(cnn)中,将一个卷积核与给定的图像做卷积运算就可以提取一种图像特征,不同的卷积核可以提取不同的图像特征。由于卷积神经网络的局部连接性,使得模型的复杂度降低,提高模型训练的效率;并且,由于卷积神经网络的权值共享性,因此卷积神经网络可以并行学习,进一步提高模型训练效率。

长短时递归神经网络(long-shorttermmemory,以下简称lstm)模型是一种时间递归神经网络模型,适合于处理和预测具有时间序列,且时间序列间隔和延迟相对较长的重要事件。lstm模型具有时间记忆功能,由于本实施例中每一帧训练人脸图片的特征与前后两帧的训练人脸图片特征具有密切联系,因此采用长短时递归神经网络模型对提取到的特征进行训练,以体现数据的长期记忆能力,提高模型的准确率。

本实施例中,由于是对目标训练数据即连续n帧的训练人脸图片进行训练,因此需对训练人脸图片进行特征提取,而卷积神经网络模型是图片特征提取常用的神经网络,由于卷积神经网络的权值共享性和局部连接性,大大增加了模型训练的效率。而本实施例中每一帧训练人脸图片的特征与前后两帧的训练人脸图片特征具有密切联系,因此采用长短时递归神经网络模型对提取到的人脸特征进行训练,以体现数据的长期记忆能力,提高模型的准确率。由于卷积神经网络的权值共享性和局部连接性,以及长短时递归神经网络模型能够体现数据的长期记忆能力的优点,大大增加了由卷积神经网络-长短时递归神经网络模型进行训练得到的风控模型训练的效率以及风控模型的准确率。

s16:采用测试集中每一组目标训练数据对原始风控模型进行测试,获取目标风控模型。

其中,目标风控模型是采用测试集中的训练人脸图片对原始风险模型进行测试,以使原始风控模型的准确度达到预设准确度的模型。具体地,采用测试集中的目标训练数据即连续n帧的训练人脸图片对原始风控模型进行测试,以获取对应的准确度;若准确度达到预设准确度,则将该原始风控模型作为目标风控模型。

本实施例中,先对原始视频数据进行标注,获取正负样本,以方便模型训练,提高模型训练的效率。并将正负样本的比例设置同等比例,能够有效防止模型训练过拟合的情况,以使通过正负样本训练获得的风控模型的识别效果更加精准。然后,对正负样本进行分帧和人脸检测,获取包含人面部特征的图片即训练人脸图片,以使风控模型能够基于训练人脸图片提取微表情特征,并进行深度学习,提高风控模型的识别准确率。对训练人脸图片按照预设数量进行分组,以使每一预设数量的连续n帧的训练人脸图片作为一组目标训练数据进行模型训练,提高模型的训练效率和风控模型识别的准确率。对训练人脸图片按照预设比例进行划分,获取训练集和测试集,并将训练集中每一组目标训练数据输入到卷积神经网络-长短时递归神经网络模型中进行训练,获取原始风控模型,以使原始风控模型具有时序性,并且由于卷积神经网络的权值共享性,因此网络可以并行学习,提高模型训练效率,由于卷积神经网络的局部连接性,使得模型的复杂度降低,提高模型训练的效率。最后,采用测试集中每一组目标训练数据对原始风控模型进行测试,获取目标风控模型,以使目标风控模型的识别效果更加精准。

在一具体实施方式中,如图2所示,步骤s12中,即对正负样本进行分帧和人脸检测,获取训练人脸图片,具体包括如下步骤:

s121:对正负样本进行分帧,获取视频图像。

其中,分帧是指按照预设时间对原始视频数据进行划分,以获取视频图像。具体地,在对正负样本进行分帧的步骤之后,还包括对视频图像进行归一化和时间标注的步骤。归一化是一种简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为标量。例如本实施例中的正负样本中,需要有客户的面部区域,才能提取客户的微表情特征,因此需要将分帧后的视频图像的像素归一化到260*260像素,统一像素,以便后续对每一帧视频图像进行人脸检测,提高模型识别的准确率。对视频图像进行时间标注,即对每一帧视频图像按照时间的先后顺序进行标注,以使视频图像具有时序性,提高模型的准确率。

s122:采用人脸检测模型对视频图像进行人脸检测,获取训练人脸图片。

其中,人脸检检测模型是预先训练好的用于检测每一帧视频图像是否包含人的面部区域的模型。具体地,将每一帧视频图像输入到人脸检测模型中,检测每一帧视频图像中的人脸位置,进而提取包含有人脸的视频图像即为训练人脸图片,为后续模型的输入提供技术支持。

本实施例中,对正负样本进行分帧以及归一化处理,获取视频图像,统一每一帧视频图像的像素,以便后续对每一帧视频图像进行人脸检测,提高风控模型训练的效率。最后,采用人脸检测模型对视频图像进行人脸检测,以获取包含人脸的视频图像即为训练人脸图片,为后续模型的输入提供技术支持,并且通过对包含有人脸的视频图像进行模型训练,排除其他因素干扰,以使模型能够基于训练人脸图片,提取微表情特征,为风控模型的训练提供技术支持。

在一具体实施方式中,步骤s122中的人脸检测模型具体为采用cascadecnn网络训练得到的人脸检测模型。

其中,cascadecnn(级联卷积神经网络)是对经典的violajones方法的深度卷积网络实现,是一种检测速度较快的人脸检测方法。violajones是一种人脸检测框架。本实施例中,采用cascadecnn方法对标注好人脸位置的图片进行训练,以获取人脸检测模型,提高了人脸检测模型的识别效率。

具体地,采用cascadecnn方法对标注好人脸位置的图片(训练人脸图片)进行训练的步骤如下:

训练第一阶段,采用12-net网络扫描图像,并拒绝90%以上的窗口,将剩余窗口输入到12-calibration-net网络进行矫正,然后对采用非极大值抑制算法对矫正后的图像进行处理,以消除高度重叠窗口。其中,12-net是使用12×12的检测窗口,以步长为4,在w(宽)×h(高)的图片上滑动,得到检测窗口。12-calibration-net是矫正网络,用于矫正人脸所在区域,得出人脸的区域坐标。非极大值抑制算法在目标检测和定位等领域是一种被广泛使用的方法,其算法原理的本质是搜索局部极大值并抑制非极大值元素。利用上述的12-net网络对训练人脸图片作人脸检测,将训练人脸图片中判为非人脸(即没有超过预设阈值的)的窗口作为负样本,将所有真实人脸(即超过预设阈值的)的窗口作为正样本,以获取对应的检测窗口。其中,预设阈值是开发人员预先设定好的用于判断训练数据中是否存在人脸的阈值。

训练第二阶段,采用24-net和24-calibration-net网络对第一阶段输出的图像进行处理;其中,12-net和24-net都是用于判断是否为人脸区的网络,其区别在于24-net是在12-net的基础上,将24×24的图片输入到24-net网络得到24-net的全连接层提取的特征,并同时将21×24的图片缩放到12×12,输入到12-net全连接层,最后将24-net全连接层提取的特征与12-net全连接层得到的特征一起输出。12-calibration-net网络和24-calibration-net网络是矫正网络。利用上述的24-net网络在训练数据上作人脸检测,将训练数据中判定为非人脸的窗口作为负样本,将所有真实人脸作为正样本。

训练第三阶段,采用48-net和48-calibration-net网络对训练第二阶段的输出结果进行处理,以完成最后阶段的训练。该阶段处理过程与训练第二阶段类似,为避免重复,这里不再一一赘述。

本实施例中,采用cascadecnn网络训练得到的人脸检测模型对视频图像进行人脸检测,获取训练人脸图片的过程与上述训练过程保持一致,为避免重复,这里不再一一赘述。

在一具体实施方式中,如图3所示,步骤s15中,即将训练集中每一组目标训练数据输入到卷积神经网络-长短时递归神经网络模型中进行训练,获取原始风控模型,具体包括如下步骤:

s151:初始化卷积神经网络-长短时递归神经网络模型。

其中,初始化卷积神经网络-长短时递归神经网络模型是指预先初始化卷积神经网络模型的模型参数(即卷积核和偏置)以及lstm模型中的模型参数(即各层之间的连接权值)。卷积核是指卷积神经网络的权值,当输入训练数据时,会乘上一个权值即卷积核,然后得到神经元的输出,它反映了训练数据的重要程度。偏置是用于更改权重乘输入的范围的线性分量。基于确定的卷积核、偏置以及lstm模型中各层之间的连接权值,即可完成模型训练的过程。

s152:采用卷积神经网络对训练集中的目标训练数据进行特征提取,获取人脸特征。

其中,人脸特特征是采用卷积神经网络对训练集中的的目标训练数据即连续n帧的训练人脸图片进行特征提取所得到的面部特征。具体地,采用卷积神经网络对训练集中的目标训练数据进行特征提取,具体包括如下步骤:

其中,人脸特征是采用卷积神经网络模型对训练集中的目标训练数据进行卷积运算所得到的特征。具体地,卷积运算的计算公式包括其中,*代表卷积运算;xj代表第j个输入特征图;yj代表第j个输出特征图;wij是第i个输入特征图与第j个输出特征图之间的卷积核(权值);bj代表第j个输出特征图的偏置项。然后采用最大池化下采样对卷积后的特征图进行下采样操作以实现对特征图的降维,其计算公式为其中,yj表示下采样过程中的第i个输出谱(即下采样后的特征图),下采样过程中的每一个神经元是从第i个输入谱(卷积后的特征图)中采用s*s的下采样框局部采样得到的;m与n分别表示下采样框移动的步长。

s153:将人脸特征输入到长短时递归神经网络模型中进行训练,获取原始风控模型。

具体地,lstm模型是具有长时记忆能力的神经网络模型中的一种,具有输入层、隐藏层和输出层这三层网络结构。其中,输入层是lstm模型的第一层,用于接收外界信号,即负责接收携带时序状态的人脸特征。本实施例中,由于训练集中的训练人脸图片具有时序性,因此,训练集中的训练人脸图片经步骤s152处理后获取的人脸特征也具有时序性,使其可应用在lstm模型中,使得lstm获取携带时序状态的人脸特征。输出层是lstm模型的最后一层,用于向外界输出信号,即负责输出lstm模型的计算结果。隐藏层是lstm模型中除输入层和输出层之外的各层,用于对输入的人脸特征进行处理,获取lstm模型的计算结果。其中,原始风控模型是采用lstm模型对携带时序状态的人脸特征进行多次迭代直至收敛所得到的模型。可以理解地,采用lstm模型对提取的人脸特征进行模型训练增强了获取到的原始风控模型的时序性,从而提高了原始风控模型的准确率。

本实施例中,lstm模型的输出层采用softmax(回归模型)进行回归处理,用于分类输出权重矩阵。softmax(回归模型)是一种常用于神经网络的分类函数,它将多个神经元的输出,映射到[0,1]区间内,可以理解成概率,计算起来简单方便,从而来进行多分类输出,使其输出结果更准确。

本实施例中,先初始化卷积神经网络-长短时递归神经网络模型,以便基于卷积神经网络模型对训练集中的目标训练数据进行训练,获取人脸特征,然后将获取到的人脸特征输入lstm模型进行训练,该过程无需人为提取特征,只需将训练人脸图片直接输入到卷积神经网络-长短时递归神经网络模型中,即可由模型自行提取特征,提高模型训练效率。

如图4所示,将人脸特征输入到长短时递归神经网络模型中进行训练(即步骤s153),具体包括如下步骤:

s1531:采用前向传播算法对人脸特征进行训练,获取第一状态参数。

具体地,采用前向传播(forwardpropagation)算法对人脸特征进行训练,是指采用前向传播算法依据人脸特征携带的时序状态的先后顺序进行训练。其中,第一状态参数是指基于人脸特征进行模型训练的初始迭代过程所得到的参数。

其中,前向传播(forwardpropagation)算法是依据时间的顺序进行模型训练的算法。具体地,前向传播算法的计算公式为其中,st表示当前时刻隐藏层的输出;表示隐藏层上一时刻到当前时刻的权值;表示输入层到隐藏层的权值;表示当前时刻的预测输出;表示隐藏层到输出层的权值。

可以理解地,前向传播算法是将当前时刻的输入xt以及上一时刻的隐藏单元的输出st-1,即lstm模型中隐藏层内的记忆单元的输出st-1作为隐藏层的输入,之后通过激活函数tanh(双曲正切)的变换得到隐藏层当前时刻的输出st,t时刻的预测输出则用表示,u表示隐藏层上一时刻到当前时刻的权值,w表示从输入层到隐藏层的权值,v表示从隐藏层到输出层的权值。由此可知,预测输出与当前时刻的输出st相关,st包括了t时刻的输入与t-1时刻的状态,使得模型输出保留了时间序列上所有的信息,具有时序性。

本实施例中,由于线性模型的表达能力不够,因此采用tanh(双曲正切)作为激活函数,可加入非线性因素使得训练出的原始风控模型能够解决更复杂的问题。并且,激活函数tanh(双曲正切)具有收敛速度快的优点,能够节省训练时间,提高模型训练的效率。

s1532:采用后向传播算法对第一状态参数进行误差计算,获取原始风控模型。

其中,后向传播(backpropagation)算法是从最后一个时间将累积的残差传递回来并进行神经网络模型训练的算法。具体地,后向传播算法的计算公式为其中,表示t时刻的预测输出;ot表示t时刻与对应的真实值。本实施例中,采用后向传播算法对第一状态参数进行误差计算,并基于误差计算的结果进行误差反传更新,以更新lstm模型的权值参数和卷积神经网络的权值参数,可有效提高风控模型的准确率。

具体地,采用后向传播(backpropagation)算法对第一状态参数进行误差计算,是指按照时间反向的顺序更新优化参数,即本实施例中的u、v和w这三个权重参数。本实施例中,误差计算是将后向传播的第t时刻的损失函数定义为交叉熵来进行计算,即采用公式进行计算。最后根据链式求导法计算出每一层的偏导即计算出每一层的偏导即计算出基于这三个变化率来更新u、v和w这三个权值参数,以获取调节后的状态参数。其中,由此可知我们只需对每一时刻的损失函数计算偏导数再相加即可得到上述四个变化率从而更新lstm模型的权值参数。其中,链式求导法是微积分中的求导法则,用于求一个复合函数的导数,是在微积分的求导运算中一种常用的方法。最后,采用公式计算卷积神经网络的偏置和卷积核的偏导,反向更新卷积神经网络的模型参数(即卷积核和偏置),其中,b表示卷积神经网络的偏置,k表示卷积神经网络的卷积核。由于lstm模型和卷积神经网络模型是一个神经网络,因此,基于lstm模型中的后向传播算法更新lstm模型的模型参数以及卷积神经网络模型的模型参数,即可完成对原始风控模型的优化。

具体地,由于梯度会随着反向传播层数的递增而成指数增长造成梯度消失的现象,本实施例中采用交叉熵损失函数与tanh激活函数配合能够很好的解决梯度消失的问题,增加训练的准确率。

本实施例中,先采用前向传播算法对人脸特征进行训练,获取第一状态参数,然后采用后向传播算法对第一状态参数进行误差计算,并基于误差计算的结果进行误差反传更新,以更新lstm模型的权值参数和卷积神经网络的权值参数,可有效提高获取到的原始风控模型的准确率。

本实施例中,由于卷积神经网络(cnn)是局部连接网络,具有局部连接性和权值共享性,以使模型能够并行学习,因此采用卷积神经网络对训练集中的人脸图片进行特征提取,提高了人脸特征的获取效率,进而提高了模型训练的效率。然后将获取的人脸特征输入到lstm模型中进行训练,获取具有时序性的原始风控模型,以增强原始风控模型在时间上的预测能力,提高原始风险模型的准确率。

本实施例中,先对原始视频数据进行标注,获取正负样本,以方便模型训练,提高模型训练的效率。然后,将正负样本的比例设置同等比例,能够有效防止模型训练过拟合的情况,以使通过正负样本训练获得的风控模型的识别效果更加精准。然后,对正负样本进行分帧以及归一化处理,获取视频图像,统一每一帧视频图像的像素,以便后续对每一帧视频图像进行人脸检测,提高风险识别的准确率。最后,采用人脸检测模型对视频图像进行人脸检测,以获取包含人脸的视频图像即训练人脸图片,为后续模型的输入提供技术支持,并且通过对包含有人脸的视频图像进行模型训练,排除其他因素干扰,以使模型能够基于训练人脸图片,提取微表情特征,达到风险控制的目的。对训练人脸图片按照预设数量进行分组,以使每一预设数量的连续n帧的训练人脸图片作为一组目标训练数据进行模型训练,提高模型的训练效率和风控模型识别的准确率。对目标训练数据按照预设比例进行划分,获取训练集和测试集,并将训练集中的每一组目标训练数据输入到卷积神经网络-长短时递归神经网络模型中进行训练,获取原始风控模型,以使原始风控模型具有时序性,并且由于卷积神经网络的权值共享性,因此网络可以并行学习,提高模型训练效率。最后,采用测试集中每一组目标训练数据对原始风控模型进行测试,获取目标风控模型,以使目标风控模型的识别效果更加精准。

应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。

实施例2

图5示出与实施例1中风控模型训练方法一一对应的风控模型训练装置的原理框图。如图5所示,该风控模型训练装置包括正负样本获取模块11、训练人脸图片获取模块12、目标训练数据获取模块13、目标训练数据划分模块14、原始风控模型获取模块15和目标风控模型获取模块16。其中,正负样本获取模块11、训练人脸图片获取模块12、目标训练数据获取模块13、目标训练数据划分模块14、原始风控模型获取模块15和目标风控模型获取模块16的实现功能与实施例1中风控模型训练方法对应的步骤一一对应,为避免赘述,本实施例不一一详述。

正负样本获取模块11,用于对原始视频数据进行标注,获取正负样本。

训练人脸图片获取模块12,用于对正负样本进行分帧和人脸检测,获取训练人脸图片。

目标训练数据获取模块13,用于对训练人脸图片按照预设比例进行划分,获取训练集和测试集。

目标训练数据划分模块14,用于对目标训练数据按照预设比例进行划分,获取训练集和测试集。

原始风控模型获取模块15,用于将训练集中每一组目标训练数据输入到卷积神经网络-长短时递归神经网络模型中进行训练,获取原始风控模型。

目标风控模型获取模块16,用于采用测试集中每一组目标训练数据对原始风控模型进行测试,获取目标风控模型。

优选地,训练人脸图片获取模块12包括视频图像获取单元121和训练人脸图片获取单元122。

视频图像获取单元121,用于对正负样本进行分帧,获取视频图像。

训练人脸图片获取单元122,用于采用人脸检测模型对视频图像进行人脸检测,获取训练人脸图片。

优选地,原始风控模型获取模块15包括模型初始化单元151、人脸特征获取单元152和原始风控模型获取单元153。

模型初始化单元151,用于初始化卷积神经网络-长短时递归神经网络模型。

人脸特征获取单元152,用于采用卷积神经网络对训练集中的目标训练数据进行特征提取,获取人脸特征。

原始风控模型获取单元153,用于将人脸特征输入到长短时递归神经网络模型中进行训练,获取原始风控模型。

优选地,原始风控模型获取单元153包括第一状态参数获取子单元1531和原始风控模型获取子单元1532。

第一状态参数获取子单元1531,用于采用前向传播算法对人脸特征进行训练,获取第一状态参数。

原始风控模型获取子单元1532,用于采用后向传播算法对第一状态参数进行误差计算,获取原始风控模型。

实施例3

图6示出本实施例中风险识别方法的流程图。该风控模型训练方法可应用在银行、证券、保险等金融机构配置的计算机设备上,能够有效辅助信审人对贷款人进行风险控制,进而确定是否给该贷款人发放贷款。如图6所示,该风险识别方法包括如下步骤:

s21:获取待识别视频数据。

其中,待识别视频数据是用于记录贷款人在信审过程中的未经处理的视频数据。由于针对一帧待识别视频图像进行识别的准确性不高,因此本实施例中的待识别视频数据是由至少两帧待识别视频图像组成的视频数据。

本实施例中,在信审过程中,信审人可通过视频聊天的方式对目标客户进行提问,以获取目标客户回复的视频数据(即待识别视频数据),以使信审过程智能化,无需信审人与目标客户进行面对面交流,以节省人工成本。

s22:采用人脸检测模型对待识别视频数据进行人脸检测,获取待识别人脸图片。

其中,待识别人脸图片是采用人脸检测模型对待识别视频数据进行人脸检测所获取的用于进行识别的人脸图片。具体地,将待识别视频数据中的每一帧待识别视频图像输入到人脸检测模型中,检测每一帧待识别视频图像中的人脸位置,进而提取包含有人脸的视频图像即待识别人脸图片。具体地,该人脸检测模型具体为采用cascadecnn网络训练得到的人脸检测模型,其对待识别视频数据进行人脸检测的过程与实施例1中的检测过程相同,为避免重复,在此不一一赘述。

s23:对待识别人脸图片进行分组,获取至少一组目标人脸图片。

其中,按照预设数量对待识别人脸图片进行分组,获取至少一组目标人脸图片。具体地,对待识别人脸图片按照交叉选取的方式对待识别人脸图片进行分组。本实施例中,按照每一百帧为一组待识别数据(即目标人脸图片)进行分组,例如,一个40s的待识别视频数据(包含960帧),按照每一百帧图片进行分组即第1张图片到第100张图片为一组,第10张图片到第110张图片为一组,以此类推,获取至少一组目标人脸图片,通过此交叉选取的方式获取至少一组目标人脸图片,以充分保留待识别人脸图片之间的联系,提高了模型识别的准确率

s24:采用目标风控模型对至少一组目标人脸图片进行识别,获取每一组目标人脸图片对应的风险识别概率。

其中,目标风控模型是采用实施例1中风控模型训练方法进行训练所获取的目标风控模型。本实施例中,将至少一组目标人脸图片输入到与目标风险模型中进行识别,在目标风险模型中对输入的至少一组目标人脸图片进行计算,并输出与每一组目标人脸图片对应的风险识别概率。本实施例中,该识别概率可以为0-1之间的实数。

s25:基于风险识别概率,获取风险识别结果。

具体地,采用加权运算公式对风险识别概率进行计算,获取风控识结果。其中,pi是每一组目标人脸图片对应的风险识别概率,wi为每一组目标人脸图片对应的权重。

本实施例中,每一组目标人脸图片对应的权重是由话术针对不同问题设置不同的权重,例如,对于年龄、性别和姓名等基础类的信审问题,设置的权重会较低,而对于贷款用途、个人收入和偿还意愿等敏感类的信审问题设置的权重会相对较高,通过加权运算对风险识别概率进行计算,获取风控识结果,以使风险识别结果更加准确。其中,基础类的信审问题和敏感类的信审问题的区分是依据该问题是否存在标准答案的条件进行划分。以银行为例,若目标客户在银行、证券、保险等金融机构预存储了一些个人信息(如身份证号、亲人手机号和家庭住址等),则基于这些预先存储有标准答案的个人信息所提出的问题即为基础类的信审问题。而对于目标客户没有在银行、证券、保险等金融机构预存储的信息,认为该部分信息没有标准答案,则基于该部分信息所提出的问题即为敏感类的信审问题。

本实施例中,先通过视频聊天的方式对目标客户进行提问,以获取目标客户回复的视频数据即为待识别视频数据,以使信审过程智能化,无需信审人与目标客户进行面对面交流,以节省人工成本。然后,用人脸检测模型对待识别视频数据进行人脸检测,进而提取包含有人脸的视频图像即为待识别人脸图片,通过交叉选取方式对待识别人脸图片进行分组,获取至少一组目标人脸图片,提高模型识别的准确率。采用目标风控模型对至少一组目标人脸图片进行识别,获取每一组目标人脸图片对应的风险识别概率,提高了目标风控模型的识别效率和识别准确率。最后,通过加权运算对风险识别概率进行计算,获取风控识结果,以使风险识别结果更加准确。

实施例4

图7示出与实施例3中风险识别方法一一对应的风险识别装置的原理框图。如图7所示,该风险识别装置包括待识别视频数据获取模块21、待识别人脸图片获取模块22、目标人脸图片获取模块23、风险识别概率获取模块24和风险识结果获取模块25。其中,待识别视频数据获取模块21、待识别人脸图片获取模块22、目标人脸图片获取模块23、风险识别概率获取模块24和风险识结果获取模块25的实现功能与实施例3中风险识别方法对应的步骤一一对应,为避免赘述,本实施例不一一详述。

待识别视频数据获取模块21,用于获取待识别视频数据。

待识别人脸图片获取模块22,用于采用人脸检测模型对待识别视频数据进行人脸检测,获取待识别人脸图片。

目标人脸图片获取模块23,用于对待识别人脸图片进行分组,获取至少一组目标人脸图片。

风险识别概率获取模块24,用于采用实施例1风控模型训练方法获取的目标风控模型对至少一组目标人脸图片进行识别,获取每一组目标人脸图片对应的风险识别概率。

风险识结果获取模块25,用于基于风险识别概率,获取风险识结果。

优选地,风险识结果获取模块25,用于采用加权运算公式对风险识别概率进行计算,获取风控识结果;其中,pi是每一组目标人脸图片对应的风险识别概率,wi为每一组目标人脸图片对应的权重。

实施例5

本实施例提供一计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现实施例1中风控模型训练方法,为避免重复,这里不再赘述。

或者,该计算机程序被处理器执行时实现实施例2中风控模型训练装置中各模块/单元的功能,为避免重复,这里不再赘述;

或者,该计算机程序被处理器执行时实现实施例3中风险识别方法,为避免重复,这里不再赘述;

或者,该计算机程序被处理器执行时实现实施例4中风险识别装置中各模块/单元的功能,为避免重复,这里不再赘述。

实施例6

图8是本发明一实施例提供的计算机设备的示意图。如图8所示,该实施例的计算机设备80包括:处理器81、存储器82以及存储在存储器82中并可在处理器81上运行的计算机程序83。处理器81执行计算机程序83时实现上述实施例1中风控模型训练方法的步骤,为避免重复,这里不再赘述。或者,处理器81执行计算机程序83时实现上述实施例2中风控模型训练装置中各模块/单元的功能,为避免重复,这里不再赘述;或者,处理器81执行计算机程序83时实现上述实施例3中风险识别方法的步骤,为避免重复,这里不再赘述;处理器81执行计算机程序83时实现上述实施例4中风险识别装置中各模块/单元的功能,为避免重复,这里不再赘述。

所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。

以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1