神经网络模型训练方法、装置、电子设备及计算机可读存储介质与流程

文档序号:29435065发布日期:2022-03-30 08:19阅读:75来源:国知局
神经网络模型训练方法、装置、电子设备及计算机可读存储介质与流程

1.本技术涉及神经网络技术领域,具体涉及一种神经网络模型训练方法、装置、电子设备及计算机可读存储介质。


背景技术:

2.在模型训练的时候,高质量的样本具有推进学习对象完成进度的目的性,有利于模型的收敛。
3.在风控领域,对业务处理网络模型,例如对风控模型的训练样本进行标注的成本非常昂贵,需要风控部门甚至公安部门进行调查取证,需耗费极大的人力、物力、财力,若是能提前筛选出训练样本中的高质量样本,只对筛选出来的高质量样本进行标注,将会大大降低样本标注的成本。
4.现亟需训练一种能为业务处理网络模型自动筛选出高质量样本数据的网络模型。


技术实现要素:

5.本技术实施例提供一种神经网络模型训练方法、装置、电子设备及计算机可读存储介质,可以训练出一种能自动筛选出高质量样本数据的网络模型。
6.第一方面,本技术实施例提供了一种神经网络模型训练方法,包括:
7.获取当前训练周期的第一样本集以及第二样本集,所述第一样本集为从样本池中选取的样本集,所述第二样本集根据上一训练周期数据集得到,所述上一训练周期数据集由所述当前训练周期的上一训练周期根据业务处理网络模型得到,所述第一样本集与所述第二样本集的样本个数均为目标样本个数;
8.将所述第一样本集以及所述第二样本集输入数据筛选网络模型,得到样本概率集合,所述样本概率集合中的概率值个数与所述目标样本个数相同;
9.根据所述样本概率集合、预设的概率阈值从所述第一样本集中确定第三样本集;
10.将所述第三样本集输入所述业务处理网络模型,确定所述业务处理网络模型的模型损失值;
11.根据所述模型损失值对所述数据筛选网络模型进行训练。
12.在一些实施方式中所述将所述第一样本集以及所述第二样本集输入数据筛选网络模型,得到样本概率集合,包括:
13.对所述第一样本集及所述第二样本集中的特征进行融合处理,得到融合样本集,所述融合样本集的样本个数为所述目标样本个数;
14.将所述融合样本集输入所述数据筛选网络模型,得到所述样本概率集合。
15.在一些实施方式中,所述根据所述样本概率集合、预设的概率阈值从所述第一样本集中确定第三样本集,包括:
16.根据所述概率阈值对所述样本概率集合中的概率进行处理,得到处理后的样本概
率集合;
17.将所述处理后的样本概率集合与所述第一样本集进行叉乘处理,得到所述第三样本集。
18.在一些实施方式中,所述根据所述概率阈值对所述样本概率集合中的概率进行处理,得到处理后的样本概率集合,包括:
19.将所述样本概率集合中概率值小于所述概率阈值的概率设为0;
20.将所述样本概率集合中概率值大于或等于所述概率阈值的概率设为1,得到所述处理后的概率集合。
21.在一些实施方式中,所述获取当前训练周期的第一样本集以及第二样本集之前,所述方法还包括:
22.获取所述上一训练周期数据集;
23.基于所述目标样本个数,对所述上一训练周期数据集进行样本位补齐处理,得到所述第二样本集。
24.在一些实施方式中,将所述第三样本集输入所述业务处理网络模型,确定所述业务处理网络模型的模型损失值,包括:
25.将所述第三样本集输入所述业务处理网络模型,确定所述模型损失值以及所述当前训练周期根据所述业务处理网络模型得到的当前训练周期数据集。
26.在一些实施方式中,所述根据所述模型损失值对所述数据筛选网络模型进行训练包括:
27.根据所述模型损失值更新所述数据筛选网络模型以及所述业务处理网络模型的模型参数;
28.确定所述数据筛选网络模型是否收敛;
29.若未收敛,则根据所述样本池更新第一样本集,并根据所述当前训练周期数据集更新所述第二样本集,返回执行所述获取当前训练周期的第一样本集以及第二样本集步骤;
30.若收敛,则确定所述数据筛选网络模型完成训练,得到训练后的数据筛选网络模型。
31.在一些实施方式中,所述确定所述数据筛选网络模型完成训练,得到训练后的数据筛选网络模型之后,所述方法还包括:
32.获取待筛选数据集;
33.基于所述训练后的数据筛选网络模型对所述待筛选数据集进行筛选,得到待标注数据集;
34.获取待标注数据集中数据的标注结果,得到标注样本集;
35.根据所述标注样本集对待训练的业务处理网络模型进行训练。
36.第二方面,本技术实施例还提供了一种神经网络模型训练装置,包括:
37.获取单元,用于获取当前训练周期的第一样本集以及第二样本集,所述第一样本集为从样本池中选取的样本集,所述第二样本集为所述当前训练周期的上一训练周期根据业务处理网络模型得到的上一训练周期数据集,所述第一样本集与所述第二样本集的样本个数均为目标样本个数;
38.处理单元,用于将所述第一样本集以及所述第二样本集输入数据筛选网络模型,得到样本概率集合,所述样本概率集合中的概率值个数与所述目标样本个数相同;
39.所述处理单元,还用于根据所述样本概率集合、预设的概率阈值从所述第一样本集中确定第三样本集;
40.所述处理单元,还用于将所述第三样本集输入所述业务处理网络模型,确定所述业务处理网络模型的模型损失值;
41.所述处理单元,还用于根据所述模型损失值对所述数据筛选网络模型进行训练。
42.在一些实施方式中,所述处理单元,还用于:
43.对所述第一样本集及所述第二样本集中的特征进行融合处理,得到融合样本集,所述融合样本集的样本个数为所述目标样本个数;
44.将所述融合样本集输入所述数据筛选网络模型,得到所述样本概率集合。
45.在一些实施方式中,所述处理单元,还用于:
46.根据所述概率阈值对所述样本概率集合中的概率进行处理,得到处理后的样本概率集合;
47.将所述处理后的样本概率集合与所述第一样本集进行叉乘处理,得到所述第三样本集。
48.在一些实施方式中,所述处理单元,还用于:
49.将所述样本概率集合中概率值小于所述概率阈值的概率设为0;
50.将所述样本概率集合中概率值大于或等于所述概率阈值的概率设为1,得到所述处理后的概率集合。
51.在一些实施方式中,所述处理单元,还用于:
52.获取所述上一训练周期数据集;
53.基于所述目标样本个数,对所述上一训练周期数据集进行样本位补齐处理,得到所述第二样本集。
54.在一些实施方式中,所述处理单元,还用于:
55.将所述第三样本集输入所述业务处理网络模型,确定所述模型损失值以及所述当前训练周期根据所述业务处理网络模型得到的当前训练周期数据集。
56.在一些实施方式中,所述处理单元,还用于:
57.根据所述模型损失值更新所述数据筛选网络模型以及所述业务处理网络模型的模型参数;
58.确定所述数据筛选网络模型是否收敛;
59.若未收敛,则根据所述样本池更新第一样本集,并根据所述当前训练周期数据集更新所述第二样本集,返回执行所述获取当前训练周期的第一样本集以及第二样本集步骤;
60.若收敛,则确定所述数据筛选网络模型完成训练,得到训练后的数据筛选网络模型。
61.在一些实施方式中,所述处理单元,还用于:
62.获取待筛选数据集;
63.基于所述训练后的数据筛选网络模型对所述待筛选数据集进行筛选,得到待标注
数据集;
64.获取待标注数据集中数据的标注结果,得到标注样本集;
65.根据所述标注样本集对待训练的业务处理网络模型进行训练。
66.第三方面,本技术实施例还提供了一种电子设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器调用所述存储器中的计算机程序时执行本技术实施例提供的任一种神经网络模型训练方法中的步骤。
67.第四方面,本技术实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有多条指令,所述指令适于处理器进行加载,以执行本技术实施例提供的任一种神经网络模型训练方法中的步骤。
68.本技术实施例中,神经网络模型训练装置获取当前训练周期的第一样本集以及第二样本集,其中,所述第一样本集为从样本池中选取的样本集,所述第二样本集根据上一训练周期数据集得到,所述上一训练周期数据集由所述当前训练周期的上一训练周期根据业务处理网络模型得到,所述第一样本集与所述第二样本集的样本个数均为目标样本个数;然后将所述第一样本集以及所述第二样本集输入数据筛选网络模型,得到样本概率集合,所述样本概率集合中的概率值个数与所述目标样本个数相同;根据所述样本概率集合、预设的概率阈值从所述第一样本集中确定第三样本集;再将所述第三样本集输入所述业务处理网络模型,确定所述业务处理网络模型的模型损失值;最后根据所述模型损失值对所述数据筛选网络模型进行训练。本方案中数据筛选网络模型根据业务处理网络模型的模型损失值进行训练,由于数据筛选网络模型在训练时结合了业务处理网络模型的参数进行训练,故训练出的数据筛选网络模型可以为业务处理网络模型筛选出高质量的样本数据。
附图说明
69.为了更清楚地说明本技术实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
70.图1是本技术实施例提供的神经网络模型训练方法的一个应用场景示意图;
71.图2是本技术实施例提供的神经网络模型训练方法的一流程示意图;
72.图3是本技术实施例提供的神经网络模型训练方法的另一流程示意图;
73.图4是本技术实施例提供的神经网络模型训练方法中业务处理网络模型的训练方法的一流程示意图;
74.图5是本技术实施例提供的数据筛选网络模型的一个应用场景示意图;
75.图6是本技术实施例提供的神经网络模型训练装置的一结构示意图;
76.图7是本技术实施例提供的电子设备的结构示意图。
具体实施方式
77.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施
例,都属于本技术保护的范围。
78.在以下的说明中,本技术的具体实施例将参考由一部或多部计算机所执行的步骤及符号来说明,除非另有述明。因此,这些步骤及操作将有数次提到由计算机执行,本文所指的计算机执行包括了由代表了以一结构化型式中的数据的电子信号的计算机处理单元的操作。此操作转换该数据或将其维持在该计算机的内存系统中的位置处,其可重新配置或另外以本领域测试人员所熟知的方式来改变该计算机的运作。该数据所维持的数据结构为该内存的实体位置,其具有由该数据格式所定义的特定特性。但是,本技术原理以上述文字来说明,其并不代表为一种限制,本领域测试人员将可了解到以下所述的多种步骤及操作亦可实施在硬件当中。
79.本技术的原理使用许多其它泛用性或特定目的运算、通信环境或组态来进行操作。所熟知的适合用于本技术的运算系统、环境与组态的范例可包括(但不限于)手持电话、个人计算机、服务器、多处理器系统、微电脑为主的系统、主架构型计算机、及分布式运算环境,其中包括了任何的上述系统或装置。
80.本技术中的术语“第一”、“第二”和“第三”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。
81.请参阅图1,图1为本技术实施例提供的神经网络模型训练方法的一个应用场景示意图,该应用场景包括数据筛选网络模型以及业务处理网络模型,该神经网络模型训练方法包括多个训练周期,在当前训练周期中,首先,从样本池中获取第一样本集,并且获取第二样本集,其中,第二样本集根据上一训练周期数据集得到(通过sigmod层获取),所述上一训练周期数据集由所述当前训练周期的上一训练周期根据业务处理网络模型得到,所述第一样本集与所述第二样本集的样本个数均为目标样本个数。
82.然后将所述第一样本集以及所述第二样本集输入数据筛选网络模型,得到样本概率集合,其中,所述样本概率集合中的概率值个数与所述目标样本个数相同,再根据所述样本概率集合、预设的概率阈值从所述第一样本集中确定第三样本集;并将所述第三样本集输入所述业务处理网络模型,业务处理网络模型的最后一层输出当前训练周期的当前训练周期数据集(用于生成下一训练周期的第二样本集),并确定所述业务处理网络模型的模型损失值loss;最后根据所述模型损失值对所述数据筛选网络模型以及业务处理网络模型进行训练(反馈激励reward),直到数据筛选网络模型收敛,停止对数据筛选网络模型的训练。
83.在一些实施例中,本技术提及的数据筛选网络模型为强化学习(rl)模型,业务处理网络模型为机器学习(ml)模型或深度学习(dl)模型。
84.本技术实施例的目的主要是为了训练数据筛选网络模型,并根据训练后的数据筛选网络模型进行数据筛选,然后对筛选后的数据进行人工标注,得到标注后样本,再根据标注后样本对业务处理网络模型进行训练,在保证模型预测精度的前提下,减少业务处理网络模型的样本标注量。
85.请参阅图2,图2是本技术一实施例提供的神经网络模型训练方法的流程示意图。该神经网络模型训练方法的执行主体可以是本技术实施例提供的神经网络模型训练装置,或者集成了该神经网络模型训练装置的电子设备,其中,该神经网络模型训练装置可以采用硬件或者软件的方式实现,该电子设备可以是智能手机、平板电脑、掌上电脑、或者笔记本电脑等。该神经网络模型训练方法可以包括:
86.201、获取当前训练周期的第一样本集以及第二样本集。
87.其中,该第一样本集为从样本池中选取的样本集,该第二样本集根据上一训练周期数据集得到,该上一训练周期数据集由该当前训练周期的上一训练周期根据业务处理网络模型得到,该第一样本集与该第二样本集的样本个数均为目标样本个数。
88.需要说明的是,若当前训练周期为首次训练的周期时,则此时第二样本集为0。
89.具体地,本技术有放回地从样本池中随机选择第一样本集,其中,第一样本集包括含h1*w1维的已标注训练样本特征,其中h1为样本数量,w1为样本的特征维度,第二样本集包含h1*w2维的特征,其中,当业务处理网络模型为回归模型时w2=1,对于为二分类模型时w2=2,为多分类模型时w2=多分类模型的类别数量。
90.其中,第一样本集中的样本可以包括多个特征维度,例如用户的年龄、受教育程度、性别以及贷款金额等特征维度。
91.在本实施例中,该获取当前训练周期的第一样本集以及第二样本集之前,该方法还包括:
92.a、获取该上一训练周期数据集。
93.b、基于该目标样本个数,对该上一训练周期数据集进行样本位补齐处理,得到该第二样本集。
94.即,当业务处理网络模型的最后一层在上一训练周期的输出的数据集为h2*w2时,此时,需要将h2*w2扩展为h1*w2,保持原有特征的位置,不足位补0,使得第一样本集和第二样本集的样本数保持一致。
95.其中,本实施例中的目标样本个数的值在不同的训练周期可以相同也可以不同,具体此处不做限定。
96.202、将该第一样本集以及该第二样本集输入数据筛选网络模型,得到样本概率集合。
97.其中,该样本概率集合中的概率值个数与该目标样本个数相同。
98.具体地,该将该第一样本集以及该第二样本集输入数据筛选网络模型,得到样本概率集合,包括:
99.a、对该第一样本集及该第二样本集中的特征进行融合处理,得到融合样本集。
100.其中,对该第一样本集及该第二样本集中的特征进行融合处理,具体可以为,将第一样本集中样本的特征维度w1加上第二样本集中样本的特征维度w2,此时,得到的融合样本集为h1*(w1+w2),即数据筛选网络模型的输入样本特征维度为h1*(w1+w2)。
101.这样,融合样本集中的每个样本同时包含第一样本集以及第二样本集中样本的特征维度(w1+w2),其中,该融合样本集的样本个数与该目标样本个数相同。
102.b、将该融合样本集输入该数据筛选网络模型,得到该样本概率集合。
103.得到融合样本集h1*(w1+w2)之后,将融合样本集h1*(w1+w2)维的已标注训练特征输入到数据筛选网络模型中,该模型的输出向量代表每个样本是否保留的样本概率集合x1={p1,p2,p3…
,p
h1
}。
104.本实施例中,由于数据筛选网络模型的输入融合了第二样本集,第二样本集为根据业务处理网络模型得到的数据,故在数据筛选网络模型进行数据处理时,结合了业务处理网络模型的数据,使得数据筛选网络模型与业务处理网络模型具有关联性。
105.203、根据该样本概率集合、预设的概率阈值从该第一样本集中确定第三样本集。
106.本实施例中,概率阈值α的取值可以为[0.2,0.4]区间中的任一个数,其中,该根据该样本概率集合、预设的概率阈值从该第一样本集中确定第三样本集,包括:
[0107]
a、根据该概率阈值对该样本概率集合中的概率进行处理,得到处理后的样本概率集合。
[0108]
具体地,将该样本概率集合中概率值小于该概率阈值的概率设为0;将该样本概率集合中概率值大于或等于该概率阈值的概率设为1,得到该处理后的概率集合,公式为:
[0109]
b、将该处理后的样本概率集合与该第一样本集进行叉乘处理,得到该第三样本集。
[0110]
本实施例中,处理后的样本概率集合的公式为x2=p(x1),然后将x2向量与第一样本集h1*w1叉乘,保留第一样本集中大于0的的样本,最终保留的样本特征维度为第三样本集h2*w1。
[0111]
204、将该第三样本集输入该业务处理网络模型,确定该业务处理网络模型的模型损失值。
[0112]
具体地,将该第三样本集输入该业务处理网络模型,确定该模型损失值以及该当前训练周期根据该业务处理网络模型最后一层得到的当前训练周期数据集h2*w2,其中,在下一训练周期获取第二样本集时,该当前训练周期数据集h2*w2将扩展为h1*w2,即保持原有特征位置不变,样本的不足位补0,然后经过sigmod层,将当前训练周期的第二样本集作为下一训练周期的第二样本集。
[0113]
205、根据该模型损失值对该数据筛选网络模型进行训练。
[0114]
本实施例中,虽然目的是训练数据筛选网络模型,但在训练数据筛选网络模型的同时还需要更新业务处理网络模型的模型参数,此时数据筛选网络模型与业务处理网络模型联动训练。
[0115]
具体地,如图3所示,该根据该模型损失值对该数据筛选网络模型进行训练包括:
[0116]
301、根据模型损失值更新数据筛选网络模型以及业务处理网络模型的模型参数。
[0117]
此时,使用业务处理网络模型的模型损失值分别作为数据筛选网络模型以及业务处理网络模型的反馈激励(reward),同时更新两个模型的参数。
[0118]
302、确定该数据筛选网络模型是否收敛,若否,则执行步骤303,若是,则执行步骤304。
[0119]
303、根据该样本池更新第一样本集,并根据该当前训练周期数据集更新该第二样本集,返回执行步骤201。
[0120]
如果数据筛选网络模型还未收敛,则此时说明数据筛选网络模型未训练完成,此时,还需要对数据筛选网络模型进行一下训练周期的训练,并在下一训练周期执行与当前训练周期相同的训练步骤,此时需要更新步骤201中的第一样本集以及第二样本集。
[0121]
具体地,再次有放回地从样本池中随机选择第一样本集,然后用新选择的第一样本集替换原来的第一样本集,并且根据该当前训练周期数据集更新该第二样本集(即替换掉原来的第二样本集)。
[0122]
304、确定该数据筛选网络模型完成训练,得到训练后的数据筛选网络模型。
[0123]
其中,得到训练后的数据筛选网络模型之后,需要应用数据筛选网络模型对数据进行筛选,然后根据筛选后的数据对业务处理模型进行训练。
[0124]
如图4所示,图4为本技术实施例中,基于训练后的数据筛选网络模型的待训练的业务处理网络模型的训练方法的一个流程示意图。
[0125]
401、获取待筛选数据集。
[0126]
其中,待筛选训练集中包含的样本为未标注的样本。
[0127]
402、基于训练后的数据筛选网络模型对该待筛选数据集进行筛选,得到待标注数据集。
[0128]
具体地,将待筛选数据集输入训练后的数据筛选网络模型,输出待标注数据集,其中,待标注数据集为待筛选数据集中相对于训练业务处理网络模型来说质量较高的数据的集合。
[0129]
403、获取待标注数据集中数据的标注结果,得到标注样本集。
[0130]
当确定了代标注数据集之后,样本标注人员就可以对数据进行标注了,对数据进行筛选后再进行标注,可以提高标注速度,降低标注成本,特别是对于风控领域中风控模型的训练,风控模型样本的标注成本非常高,只对筛选出来的高质量样本进行标注,将会大大降低样本标注的成本。
[0131]
404、根据该标注样本集对待训练的业务处理网络模型进行训练。
[0132]
根据标注好的高质量的标注样本集对带训练业务处理网络模型进行训练,由于在模型训练的时候,高质量的样本具有推进学习对象完成进度的目的性,有利于模型的收敛,故此时,还可以提高模型训练的速度。
[0133]
本实施例使用训练后的数据筛选网络模型对该待筛选数据集进行自动筛选,还可以避免人工选择样本的盲目性的和局限性。
[0134]
请参阅图5,图5为本技术实施例提供的一种数据筛选网络模型的应用场景示意图,首先将未标注的样本集输入数据筛选网络模型,然后数据筛选网络模型对该样本集进行数据筛选,过滤掉样本集中的低质量样本,输出高质量样本,然后再人工对高质量样本进行标注,得到已标注的高质量样本集,然后再根据该已标注的高质量样本集对业务处理网络模型进行训练,具体地,根据业务处理网络模型的模型损失值作为业务处理网络模型的reward,更新业务处理网络模型的参数。高质量的样本具有推进学习对象完成进度的目的性,有利于模型的收敛,本实施例只需要对高质量样本进行标注,减少了样本的标注量,节约标注成本,并且可以提升模型的训练效率。
[0135]
本技术实施例中,神经网络模型训练装置获取当前训练周期的第一样本集以及第二样本集,其中,所述第一样本集为从样本池中选取的样本集,所述第二样本集根据上一训练周期数据集得到,所述上一训练周期数据集由所述当前训练周期的上一训练周期根据业务处理网络模型得到,所述第一样本集与所述第二样本集的样本个数均为目标样本个数;然后将所述第一样本集以及所述第二样本集输入数据筛选网络模型,得到样本概率集合,所述样本概率集合中的概率值个数与所述目标样本个数相同;根据所述样本概率集合、预设的概率阈值从所述第一样本集中确定第三样本集;再将所述第三样本集输入所述业务处理网络模型,确定所述业务处理网络模型的模型损失值;最后根据所述模型损失值对所述
数据筛选网络模型进行训练。本方案中数据筛选网络模型根据业务处理网络模型的模型损失值进行训练,由于数据筛选网络模型在训练时结合了业务处理网络模型的参数进行训练,故训练出的数据筛选网络模型可以为业务处理网络模型筛选出高质量的样本数据。
[0136]
为便于更好的实施本技术实施例提供的神经网络模型训练方法,本技术实施例还提供一种基于上述神经网络模型训练方法的装置。其中名词的含义与上述神经网络模型训练方法中相同,具体实现细节可以参考方法实施例中的说明。
[0137]
请参阅图6,图6为本技术实施例提供的神经网络模型训练装置的结构示意图,其中该神经网络模型训练装置600可以包括获取单元601和处理单元602,其中:
[0138]
获取单元601,用于获取当前训练周期的第一样本集以及第二样本集,所述第一样本集为从样本池中选取的样本集,所述第二样本集为所述当前训练周期的上一训练周期根据业务处理网络模型得到的上一训练周期数据集,所述第一样本集与所述第二样本集的样本个数均为目标样本个数;
[0139]
处理单元602,用于将所述第一样本集以及所述第二样本集输入数据筛选网络模型,得到样本概率集合,所述样本概率集合中的概率值个数与所述目标样本个数相同;
[0140]
所述处理单元602,还用于根据所述样本概率集合、预设的概率阈值从所述第一样本集中确定第三样本集;
[0141]
所述处理单元602,还用于将所述第三样本集输入所述业务处理网络模型,确定所述业务处理网络模型的模型损失值;
[0142]
所述处理单元602,还用于根据所述模型损失值对所述数据筛选网络模型进行训练。
[0143]
在一些实施方式中,所述处理单元602,还用于:
[0144]
对所述第一样本集及所述第二样本集中的特征进行融合处理,得到融合样本集,所述融合样本集的样本个数为所述目标样本个数;
[0145]
将所述融合样本集输入所述数据筛选网络模型,得到所述样本概率集合。
[0146]
在一些实施方式中,所述处理单元602,还用于:
[0147]
根据所述概率阈值对所述样本概率集合中的概率进行处理,得到处理后的样本概率集合;
[0148]
将所述处理后的样本概率集合与所述第一样本集进行叉乘处理,得到所述第三样本集。
[0149]
在一些实施方式中,所述处理单元602,还用于:
[0150]
将所述样本概率集合中概率值小于所述概率阈值的概率设为0;
[0151]
将所述样本概率集合中概率值大于或等于所述概率阈值的概率设为1,得到所述处理后的概率集合。
[0152]
在一些实施方式中,所述处理单元602,还用于:
[0153]
获取所述上一训练周期数据集;
[0154]
基于所述目标样本个数,对所述上一训练周期数据集进行样本位补齐处理,得到所述第二样本集。
[0155]
在一些实施方式中,所述处理单元602,还用于:
[0156]
将所述第三样本集输入所述业务处理网络模型,确定所述模型损失值以及所述当
前训练周期根据所述业务处理网络模型得到的当前训练周期数据集。
[0157]
在一些实施方式中,所述处理单元602,还用于:
[0158]
根据所述模型损失值更新所述数据筛选网络模型以及所述业务处理网络模型的模型参数;
[0159]
确定所述数据筛选网络模型是否收敛;
[0160]
若未收敛,则根据所述样本池更新第一样本集,并根据所述当前训练周期数据集更新所述第二样本集,返回执行所述获取当前训练周期的第一样本集以及第二样本集步骤;
[0161]
若收敛,则确定所述数据筛选网络模型完成训练,得到训练后的数据筛选网络模型。
[0162]
在一些实施方式中,所述处理单元602,还用于:
[0163]
获取待筛选数据集;
[0164]
基于所述训练后的数据筛选网络模型对所述待筛选数据集进行筛选,得到待标注数据集;
[0165]
获取待标注数据集中数据的标注结果,得到标注样本集;
[0166]
根据所述标注样本集对待训练的业务处理网络模型进行训练。
[0167]
本技术实施例中,获取单元601获取当前训练周期的第一样本集以及第二样本集,其中,所述第一样本集为从样本池中选取的样本集,所述第二样本集根据上一训练周期数据集得到,所述上一训练周期数据集由所述当前训练周期的上一训练周期根据业务处理网络模型得到,所述第一样本集与所述第二样本集的样本个数均为目标样本个数;然后处理单元602将所述第一样本集以及所述第二样本集输入数据筛选网络模型,得到样本概率集合,所述样本概率集合中的概率值个数与所述目标样本个数相同;根据所述样本概率集合、预设的概率阈值从所述第一样本集中确定第三样本集;再将所述第三样本集输入所述业务处理网络模型,确定所述业务处理网络模型的模型损失值;最后根据所述模型损失值对所述数据筛选网络模型进行训练。本方案中数据筛选网络模型根据业务处理网络模型的模型损失值进行训练,由于数据筛选网络模型在训练时结合了业务处理网络模型的参数进行训练,故训练出的数据筛选网络模型可以为业务处理网络模型筛选出高质量的样本数据。
[0168]
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
[0169]
参考图7,本技术实施例提供了一种服务器700,可以包括一个或者一个以上处理核心的处理器701、一个或一个以上计算机可读存储介质的存储器702、射频(radio frequen cy,rf)电路703、电源704、输入单元705、以及显示单元706等部件。本领域技术人员可以理解,图7中示出的服务器结构并不构成对服务器的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
[0170]
处理器701是该服务器的控制中心,利用各种接口和线路连接整个服务器的各个部分,通过运行或执行存储在存储器702内的软件程序和/或模块,以及调用存储在存储器702内的数据,执行服务器的各种功能和处理数据,从而对服务器进行整体监控。可选的,处理器701可包括一个或多个处理核心;优选的,处理器701可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器701中。
[0171]
存储器702可用于存储软件程序以及模块,处理器701通过运行存储在存储器702的软件程序以及模块,从而执行各种功能应用以及数据处理。
[0172]
rf电路703可用于收发信息过程中,信号的接收和发送。
[0173]
服务器还包括给各个部件供电的电源704(比如电池),优选的,电源可以通过电源管理系统与处理器701逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
[0174]
该服务器还可包括输入单元705,该输入单元705可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
[0175]
该服务器还可包括显示单元706,该显示单元706可用于显示由用户输入的信息或提供给用户的信息以及服务器的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。具体在本实施例中,服务器中的处理器701会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器702中,并由处理器701来运行存储在存储器702中的应用程序,从而实现各种功能,如下:
[0176]
获取当前训练周期的第一样本集以及第二样本集,所述第一样本集为从样本池中选取的样本集,所述第二样本集根据上一训练周期数据集得到,所述上一训练周期数据集由所述当前训练周期的上一训练周期根据业务处理网络模型得到,所述第一样本集与所述第二样本集的样本个数均为目标样本个数;
[0177]
将所述第一样本集以及所述第二样本集输入数据筛选网络模型,得到样本概率集合,所述样本概率集合中的概率值个数与所述目标样本个数相同;
[0178]
根据所述样本概率集合、预设的概率阈值从所述第一样本集中确定第三样本集;
[0179]
将所述第三样本集输入所述业务处理网络模型,确定所述业务处理网络模型的模型损失值;
[0180]
根据所述模型损失值对所述数据筛选网络模型进行训练。
[0181]
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见上文针对神经网络模型训练方法的详细描述,此处不再赘述。
[0182]
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
[0183]
为此,本技术实施例提供一种计算机可读存储介质,其中存储有多条指令,该指令能够被处理器进行加载,以执行本技术实施例所提供的任一种神经网络模型训练方法中的步骤。例如,该指令可以执行如下步骤:
[0184]
获取当前训练周期的第一样本集以及第二样本集,所述第一样本集为从样本池中选取的样本集,所述第二样本集根据上一训练周期数据集得到,所述上一训练周期数据集由所述当前训练周期的上一训练周期根据业务处理网络模型得到,所述第一样本集与所述第二样本集的样本个数均为目标样本个数;
[0185]
将所述第一样本集以及所述第二样本集输入数据筛选网络模型,得到样本概率集合,所述样本概率集合中的概率值个数与所述目标样本个数相同;
[0186]
根据所述样本概率集合、预设的概率阈值从所述第一样本集中确定第三样本集;
[0187]
将所述第三样本集输入所述业务处理网络模型,确定所述业务处理网络模型的模型损失值;
[0188]
根据所述模型损失值对所述数据筛选网络模型进行训练。
[0189]
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
[0190]
其中,该计算机可读存储介质可以包括:只读存储器(rom,read only memory)、随机存取记忆体(ram,random access memory)、磁盘或光盘等。
[0191]
由于该计算机可读存储介质中所存储的指令,可以执行本技术实施例所提供的任一种神经网络模型训练方法中的步骤,因此,可以实现本技术实施例所提供的任一种神经网络模型训练方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
[0192]
以上对本技术实施例所提供的一种神经网络模型训练方法、装置、电子设备及计算机可读存储介质进行了详细介绍,本文中应用了具体个例对本技术的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本技术的方法及其核心思想;同时,对于本领域的技术人员,依据本技术的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本技术的限制。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1