一种模型训练方法、数据处理方法及相关设备

文档序号:29869408发布日期:2022-04-30 17:32阅读:101来源:国知局
一种模型训练方法、数据处理方法及相关设备

1.本发明涉及计算机处理技术领域,特别是涉及一种模型训练方法、数据处理方法及相关设备。


背景技术:

2.在对机器学习模型(如生成对抗网络模型)进行训练时,通常会从训练数据集中随机选取一些数据对该模型进行训练,这样会导致模型训练效果不佳。


技术实现要素:

3.本发明实施例的目的在于提供一种模型训练方法、数据处理方法及相关设备,能够提高模型训练效果。具体技术方案如下:本发明提供了一种模型训练方法,所述模型训练方法用于训练机器学习模型,所述机器学习模型包括生成器和判别器,所述模型训练方法包括:将第一目标数据输入所述生成器中进行第一数据处理,获得第二目标数据,将所述第二目标数据输入所述判别器中,得到第一输出值;所述第一目标数据是对第三目标数据进行第二数据处理后得到的数据;所述第一数据处理为所述第二数据处理的反向处理过程;所述第一目标数据和所述第三目标数据为初始训练数据集中的数据;将所述第三目标数据输入所述判别器中,得到第二输出值;若所述第二输出值大于所述第一输出值,则将所述第一目标数据和第三目标数据放入当前训练数据集中;使用所述当前训练数据集对所述机器学习模型进行训练。
4.可选地,所述使用所述当前训练数据集对所述机器学习模型进行训练,具体包括:从所述当前训练数据集中选取第四目标数据和第五目标数据;所述第四目标数据是对所述第五目标数据进行所述第二数据处理后得到的数据;将所述第四目标数据输入所述生成器中进行第一数据处理,获得第六目标数据,将所述第六目标数据输入所述判别器中,得到第三输出值;将所述第五目标数据输入所述判别器中,得到第四输出值;将所述第三输出值和所述第四输出值输入生成器损失函数中,得到第一损失值;基于所述第一损失值对所述生成器的参数进行更新;判断生成器参数更新次数是否达到第一预设次数;若达到所述第一预设次数,则结束训练过程;若未达到所述第一预设次数,则返回步骤“将第一目标数据输入所述生成器中进行第一数据处理”。
5.可选地,在将第一目标数据输入所述生成器中进行第一数据处理之前,所述模型训练方法还包括:将第七目标数据输入所述生成器中进行所述第一数据处理,获得第八目标数据,
将所述第八目标数据输入所述判别器中,得到第五输出值;所述第七目标数据是对第九目标数据进行所述第二数据处理后得到的数据;所述第七目标数据和所述第九目标数据为所述初始训练数据集中的数据;将所述第九目标数据输入所述判别器中,得到第六输出值;将所述第五输出值和所述第六输出值输入判别器损失函数中,得到第二损失值;基于所述第二损失值对所述判别器的参数进行更新。
6.可选地,在所述基于所述第二损失值对所述判别器的参数进行更新之后,所述方法还包括:判断判别器参数更新次数是否达到第二预设次数;若达到所述第二预设次数,则返回步骤“将第一目标数据输入所述生成器中进行第一数据处理”;若未达到所述第二预设次数,则更换所述第七目标数据,然后返回步骤“将第七目标数据输入所述生成器中进行所述第一数据处理”。
7.可选地,所述将所述第三输出值和所述第四输出值输入生成器损失函数中,得到第一损失值,具体包括:采用方式一或方式二得到所述第一损失值;方式一:将所述第三输出值和所述第四输出值输入基于js散度获得的生成器损失函数中,得到第一损失值;方式二:将所述第三输出值和所述第四输出值输入基于wasserstein距离获得的生成器损失函数中,得到第一损失值;其中,基于js散度获得的生成器损失函数为:式中,为基于js散度获得的生成器损失函数,为第四目标数据,为第六目标数据,为第三输出值,为第五目标数据,为第四输出值,为第四目标数据服从第一分布的期望,第一分布为第四目标数据的概率分布,为第五目标数据服从第二分布的期望,第二分布为第五目标数据的概率分布;基于wasserstein距离获得的生成器损失函数为:式中,为基于wasserstein距离获得的生成器损失函数。
8.可选地,所述将所述第五输出值和所述第六输出值输入判别器损失函数中,得到第二损失值,具体包括:采用方式三或方式四得到所述第二损失值;方式三:将所述第五输出值和所述第六输出值输入基于js散度获得的判别器损失函数中,得到第二损失值;方式四:将所述第五输出值和所述第六输出值输入基于wasserstein距离获得的
判别器损失函数中,得到第二损失值;其中,基于js散度获得的判别器损失函数为:式中,为基于js散度获得的判别器损失函数,为第七目标数据,为第八目标数据,为第五输出值,为第九目标数据,为第六输出值,为第七目标数据服从第三分布的期望,第三分布为第七目标数据的概率分布,为第九目标数据服从第四分布的期望,第四分布为第九目标数据的概率分布;基于wasserstein距离获得的判别器损失函数为:式中,为基于wasserstein距离获得的判别器损失函数。
9.本发明还提供一种数据处理方法,包括:将待处理数据输入数据处理模型中,得到处理后的数据;其中,所述数据处理模型是通过上述的模型训练方法获得的。
10.本发明还提供一种模型训练系统,所述系统用于训练机器学习模型,所述机器学习模型包括生成器和判别器,所述系统包括:第一输入模块,用于将第一目标数据输入所述生成器中进行第一数据处理,获得第二目标数据,将所述第二目标数据输入所述判别器中,得到第一输出值;所述第一目标数据是对第三目标数据进行第二数据处理后得到的数据;所述第一数据处理为所述第二数据处理的反向处理过程;所述第一目标数据和所述第三目标数据为初始训练数据集中的数据;第二输入模块,用于将所述第三目标数据输入所述判别器中,得到第二输出值;判断模块,用于在所述第二输出值大于所述第一输出值时,将所述第一目标数据和第三目标数据放入当前训练数据集中;训练模块,用于使用所述当前训练数据集对所述机器学习模型进行训练。
11.本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有程序,所述程序被处理器执行时实现上述的模型训练方法和/或上述的数据处理方法。
12.本发明还提供一种电子设备,包括:至少一个处理器、以及与所述处理器连接的至少一个存储器、总线;所述处理器、所述存储器通过所述总线完成相互间的通信;所述处理器用于调用所述存储器中的程序指令,以执行上述的模型训练方法和/或上述的数据处理方法。
13.本发明实施例提供的一种模型训练方法、数据处理方法及相关设备,由于训练模型的目的是希望生成器输出期望数据,本发明中,第一目标数据通过生成器进行第一数据处理得到第二目标数据,说明第一目标数据并非期望数据;由于第三目标数据可以通过第
二数据处理得到第一目标数据,而第一数据处理为第二数据处理的反向处理过程,因此说明第三目标数据为期望数据。当第三目标数据(即期望数据)输入判别器后,得到的第二输出值应当大于第一目标数据(即非期望数据)输入模型中得到的第一输出值。若第二输出值小于第一输出值,则说明输入模型的第一目标数据会导致模型输出结果出错,此时若使用这些数据对模型训练会影响模型参数的生成,进而导致训练效果不佳。因此,本发明以第二输出值大于第一输出值这一条件作为对初始训练数据集中数据的筛选条件,将满足条件的第一目标数据和第三目标数据放入当前训练数据集中,从而使用当前训练数据集对模型进行训练,可以提高模型训练效果。
14.当然,实施本发明的任一产品或方法必不一定需要同时达到以上所述的所有优点。
附图说明
15.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
16.图1为本发明实施例提供的模型训练方法流程图;图2为本发明实施例提供的图像恢复模型训练方法流程图;图3为本发明实施例提供的模型训练系统结构图;图4为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
17.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
18.本发明提供一种模型训练方法,该模型训练方法用于训练机器学习模型,机器学习模型包括生成器和判别器,如图1所示,该模型训练方法包括:步骤101:将第一目标数据输入生成器中进行第一数据处理,获得第二目标数据,将第二目标数据输入判别器中,得到第一输出值;第一目标数据是对第三目标数据进行第二数据处理后得到的数据;第一数据处理为第二数据处理的反向处理过程;第一目标数据和第三目标数据为初始训练数据集中的数据。
19.步骤102:将第三目标数据输入判别器中,得到第二输出值。
20.步骤103:若第二输出值大于第一输出值,则将第一目标数据和第三目标数据放入当前训练数据集中。
21.步骤104:使用当前训练数据集对机器学习模型进行训练。
22.机器学习模型包括生成器和判别器,其中,生成器的作用是尽量生成期望数据,而判别器的作用是判断生成器生成的数据是否为期望数据,判别器输出的是生成器生成数据为期望数据的概率。
23.在本实施例中,将第一目标数据输入生成器后得到第二目标数据,该第一目标数据可以为非期望数据,在生成器中进行的第一数据处理即是生成器为了输出期望数据而进行的数据处理过程,而该第二目标数据则是生成器生成的与期望数据具有一定相似性的数据。
24.将第二目标数据输入判别器后得到第一输出值,该第一输出值为判别器得到的第二目标数据为期望数据的概率,第一输出值越大说明生成器得到的第二目标数据越接近期望数据。
25.在生成器中对第一目标数据采用第一数据处理是为了得到期望数据,而第三目标数据采用第二数据处理可以得到第一目标数据,由于第一数据处理为第二数据处理的反向处理过程,因此,第三目标数据可以为期望数据,将第一目标数据输入生成器后得到的第二目标数据与第三目标数据相似度越高,说明生成器训练效果越好。
26.将第三目标数据输入判别器后得到第二输出值,该第二输出值为判别器得到的第三目标数据为期望数据的概率,由于第三目标数据可以为期望数据,因此,理论上来说,判别器基于第三目标数据得到的第二输出值会大于该判别器基于第二目标数据得到的第一输出值。
27.若第二输出值小于第一输出值,则说明基于第一目标数据得到的判别器输出结果出现错误,如果将第一目标数据投入当前训练数据集以对机器学习模型进行训练,则会影响模型参数的训练结果,进而导致训练效果不佳。基于此,本发明在第二输出值大于第一输出值的情况下,才会将第一目标数据和第三目标数据放入当前训练数据集中,以便使用当前训练数据集对机器学习模型进行训练。因此,本发明通过对初始训练集中数据进行筛选,有利于提升模型训练效果。
28.目标数据可以包括图像数据、音频数据、视频数据、文本数据、尺寸数据、用户信息数据中的至少一种。数据处理可以包括:预设图像处理、预设音频处理、预设视频处理、预设文本处理、预设尺寸处理、预设用户信息处理中的至少一种。
29.可选的,第一图像数据可以包括降质图像,第一预设图像处理可以包括图像恢复处理,第二图像数据可以包括恢复图像,第三图像数据可以包括原始图像,第二预设图像处理可以包括图像降质处理。
30.可选的,第一文本数据可以包括目标文本,第一预设文本处理可以包括文本筛选处理,第二文本数据可以包括筛选后的文本,第三文本数据可以包括感兴趣文本,第二预设文本处理可以包括文本扩充处理。
31.在一可选的实施方式中,该模型训练方法可应用于图像恢复模型中。目前在存储图像时,为了减小图像的存储空间,会对原始图像进行压缩,压缩后的图像会导致图像质量降低。为了提高图像质量(如图像分辨率),使降质图像尽可能恢复到原始图像,通常会利用训练好的图像恢复模型对降质图像进行图像恢复。然而,在训练图像恢复模型时,如果从降质图像集合中随机选取降质图像对模型进行训练,这样会导致图像恢复效果不佳。基于此,本发明提供一种可以提高图像恢复效果的图像恢复模型训练方法,具体方案如下。
32.在进行图像恢复模型训练时,第一目标数据可以为降质图像,第一数据处理可以为图像质量恢复处理,第二目标数据可以为恢复图像,也就是说,将降质图像输入生成器中进行图像质量恢复处理,获得恢复图像。而第三目标数据可以为原始图像,第二数据处理可
以为图像降质处理(如图像压缩),该原始图像的图像质量(如图像分辨率)会高于上述的降质图像,而该降质图像可以是该原始图像经过图像降质处理得到的。
33.基于此,本发明提供一种图像恢复模型训练方法,如图2所示,该方法用于训练图像恢复模型,该图像恢复模型包括生成器和判别器,该方法包括如下步骤:步骤201:将降质图像输入生成器中进行图像质量恢复处理,获得恢复图像,将恢复图像输入判别器中,得到第一数值;其中,降质图像是对原始图像进行图像降质处理后得到的,降质图像和原始图像为初始训练图像集中的图像。
34.步骤202:将原始图像输入判别器中,得到第二数值。
35.步骤203:若第二数值大于第一数值,则将降质图像和原始图像放入当前训练图像集中。
36.步骤204:使用当前训练图像集对图像恢复模型进行训练。
37.将恢复图像输入判别器后得到的第一数值可以是恢复图像为原始图像的概率,概率越大说明恢复图像与原始图像在图像质量方面越接近,当然,该概率值也可以用分数值进行表示,分数值越高,两个图像的图像质量越接近。
38.由于恢复图像的图像质量理论上不会超过原始图像,因此,将原始图像输入判别器后得到的第二数值应大于将恢复图像输入判别器后得到的第一数值。若第二数值小于第一数值,则说明将降质图像输入图像恢复模型后得到的第一数值出现错误,如果将该降质图像用于训练图像恢复模型,则会对图像恢复模型的参数生成产生一定影响,可能导致训练出的图像恢复模型效果不佳,进而会影响图像恢复质量。因此,本发明在第二数值大于第一数值的条件下,将降质图像和原始图像放入当前训练图像集中,以便使用当前训练图像集对图像恢复模型进行训练。
39.在另一可选的实施方式中,该模型训练方法可用于文本筛选模型中。在进行文本处理时,第一目标数据可以为目标文本(如法律文书),该目标文本中含有感兴趣文本(如案由),第一数据处理可以为感兴趣文本筛选处理,第二目标数据可以为筛选后的文本,第三目标数据可以为感兴趣文本,第二数据处理可以为文本扩充处理(即将仅含有感兴趣文本扩充为除含感兴趣文本以外还有其他文本内容的文本,如将案由扩充为法律文书)。将筛选后的文本输入判别器后得到第三数值,将感兴趣文本输入判别器中得到第四数值,由于筛选后的文本的准确度理论上不会超过感兴趣文本,因此,第四数值理论上应大于第三数值。若第四数值小于第三数值,则说明将目标文本输入文本筛选模型后得到的第三数值出现错误,如果将该目标文本用于训练文本筛选模型,则会对文本筛选模型的参数生成产生一定影响,可能导致训练出的文本筛选模型效果不佳,进而影响文本筛选效果。因此,本发明在第四数值大于第三数值的条件下,将目标文本和感兴趣文本放入当前训练文本集中,以便使用当前训练文本集对文本筛选模型进行训练。
40.此外,本发明提供的模型训练方法还可以应用于音频处理模型、视频处理模型、尺寸数据处理模型、用户信息处理模型等中。
41.在本实施例中,步骤104:使用当前训练数据集对机器学习模型进行训练,具体包括:从当前训练数据集中选取第四目标数据和第五目标数据;第四目标数据是对第五目标数据进行第二数据处理后得到的数据;将第四目标数据输入生成器中进行第一数据处
理,获得第六目标数据,将第六目标数据输入判别器中,得到第三输出值;将第五目标数据输入判别器中,得到第四输出值;将第三输出值和第四输出值输入生成器损失函数中,得到第一损失值;基于第一损失值对生成器的参数进行更新;判断生成器参数更新次数是否达到第一预设次数;若达到第一预设次数,则结束训练过程;若未达到第一预设次数,则返回步骤101。
42.上述步骤是对生成器进行训练,通过生成器参数更新次数判断是否可以结束模型训练过程,如果可以结束训练,则将本次的生成器参数作为模型训练后的结果,可选地,例如该本次生成器参数可以对待处理数据进行第一数据处理。如果次数未达到第一预设次数,则返回步骤101继续模型的训练。
43.可选地,基于第一损失值对生成器的参数进行更新,具体包括:计算第一损失值对生成器的参数的梯度,得到第一梯度,基于第一梯度对生成器的参数进行更新。
44.本发明的模型训练方法还包括:将第七目标数据输入生成器中进行第一数据处理,获得第八目标数据,将第八目标数据输入判别器中,得到第五输出值;第七目标数据是对第九目标数据进行第二数据处理后得到的数据;第七目标数据和第九目标数据为初始训练数据集中的数据;将第九目标数据输入判别器中,得到第六输出值;将第五输出值和第六输出值输入判别器损失函数中,得到第二损失值;基于第二损失值对判别器的参数进行更新。
45.上述步骤是对判别器进行训练,对判别器进行训练的步骤可以在步骤101之前进行,也可以在执行完步骤104之后,返回步骤101之前进行。
46.可选地,基于第二损失值对判别器的参数进行更新,具体包括:计算第二损失值对判别器的参数的梯度,得到第二梯度,基于第二梯度对判别器的参数进行更新。
47.作为一可选的实施方式,在基于第二损失值对判别器的参数进行更新之后,该方法还包括:判断判别器参数更新次数是否达到第二预设次数;若达到第二预设次数,则返回步骤101;若未达到第二预设次数,则更换第七目标数据,然后返回步骤“将第七目标数据输入生成器中进行第一数据处理”。
48.在本实施例中,将第三输出值和第四输出值输入生成器损失函数中,得到第一损失值,具体包括:采用方式一或方式二得到第一损失值。
49.方式一:将第三输出值和第四输出值输入基于js散度获得的生成器损失函数中,得到第一损失值。
50.方式二:将第三输出值和第四输出值输入基于wasserstein距离获得的生成器损失函数中,得到第一损失值。
51.可选地,基于js散度获得的生成器损失函数为:式中,为基于js散度获得的生成器损失函数,为第四目标数据,为第六目标数据,为第三输出值,为第五目标数据,为第四输出值,为第四目标数据服从第一分布的期望,第一分布为第四目标数据的概率分布,为第五目标数据服从第二分布的期望,第二分布为第五目标数据的概率分布。
52.可选地,基于wasserstein距离获得的生成器损失函数为:式中,为基于wasserstein距离获得的生成器损失函数。
53.在本实施例中,将第五输出值和第六输出值输入判别器损失函数中,得到第二损失值,具体包括:采用方式三或方式四得到第二损失值。
54.方式三:将第五输出值和第六输出值输入基于js散度获得的判别器损失函数中,得到第二损失值。
55.方式四:将第五输出值和第六输出值输入基于wasserstein距离获得的判别器损失函数中,得到第二损失值。
56.可选地,基于js散度获得的判别器损失函数为:式中,为基于js散度获得的判别器损失函数,为第七目标数据,为第八目标数据,为第五输出值,为第九目标数据,为第六输出值,为第七目标数据服从第三分布的期望,第三分布为第七目标数据的概率分布,为第九目标数据服从第四分布的期望,第四分布为第九目标数据的概率分布。
57.可选地,基于wasserstein距离获得的判别器损失函数为:式中,为基于wasserstein距离获得的判别器损失函数。
58.本发明还提供一种数据处理方法,该方法包括:将待处理数据输入数据处理模型中,得到处理后的数据;其中,数据处理模型是通过上述模型训练方法获得的。
59.作为一可选的实施方式,在模型为图像恢复模型时,该数据处理方法可以为图像恢复方法,该方法可以包括:将待恢复图像输入图像恢复模型中,得到恢复图像。其中,该图像恢复模型是通过图2所示的模型训练方法得到的。
60.作为另一可选的实施方式,在模型为文本筛选模型时,该数据处理方法可以为文本筛选方法,该方法可以包括:将待处理文本输入文本筛选模型中,得到感兴趣文本。
61.此外,本发明提供的数据处理方法还可以为音频处理方法、视频处理方法、尺寸数据处理方法、用户信息处理方法等。
62.本发明还提供一种模型训练系统,该系统用于训练机器学习模型,机器学习模型包括生成器和判别器,如图3所示,该系统包括:第一输入模块301,用于将第一目标数据输入生成器中进行第一数据处理,获得第二目标数据,将第二目标数据输入判别器中,得到第一输出值;第一目标数据是对第三目标数据进行第二数据处理后得到的数据;第一数据处理为第二数据处理的反向处理过程;第一目标数据和第三目标数据为初始训练数据集中的数据。
63.第二输入模块302,用于将第三目标数据输入判别器中,得到第二输出值。
64.判断模块303,用于在第二输出值大于第一输出值时,将第一目标数据和第三目标
数据放入当前训练数据集中。
65.训练模块304,用于使用当前训练数据集对机器学习模型进行训练。
66.训练模块304,具体包括:生成器训练单元,用于从当前训练数据集中选取第四目标数据和第五目标数据;第四目标数据是对第五目标数据进行第二数据处理后得到的数据;将第四目标数据输入生成器中进行第一数据处理,获得第六目标数据,将第六目标数据输入判别器中,得到第三输出值;将第五目标数据输入判别器中,得到第四输出值;将第三输出值和第四输出值输入生成器损失函数中,得到第一损失值;基于第一损失值对生成器的参数进行更新;判断生成器参数更新次数是否达到第一预设次数;若达到第一预设次数,则结束训练过程;若未达到第一预设次数,则执行第一输入模块301。
67.生成器训练单元,具体用于采用方式一或方式二得到第一损失值;方式一:将第三输出值和第四输出值输入基于js散度获得的生成器损失函数中,得到第一损失值。
68.方式二:将第三输出值和第四输出值输入基于wasserstein距离获得的生成器损失函数中,得到第一损失值。
69.其中,基于js散度获得的生成器损失函数为:式中,为基于js散度获得的生成器损失函数,为第四目标数据,为第六目标数据,为第三输出值,为第五目标数据,为第四输出值,为第四目标数据服从第一分布的期望,第一分布为第四目标数据的概率分布,为第五目标数据服从第二分布的期望,第二分布为第五目标数据的概率分布。
70.基于wasserstein距离获得的生成器损失函数为:式中,为基于wasserstein距离获得的生成器损失函数。
71.该系统还包括:判别器训练模块,用于将第七目标数据输入生成器中进行第一数据处理,获得第八目标数据,将第八目标数据输入判别器中,得到第五输出值;第七目标数据是对第九目标数据进行第二数据处理后得到的数据;第七目标数据和第九目标数据为初始训练数据集中的数据;将第九目标数据输入判别器中,得到第六输出值;将第五输出值和第六输出值输入判别器损失函数中,得到第二损失值;基于第二损失值对判别器的参数进行更新。
72.判别器训练模块,具体用于采用方式三或方式四得到第二损失值;方式三:将第五输出值和第六输出值输入基于js散度获得的判别器损失函数中,得到第二损失值。
73.方式四:将第五输出值和第六输出值输入基于wasserstein距离获得的判别器损失函数中,得到第二损失值。
74.其中,基于js散度获得的判别器损失函数为:式中,为基于js散度获得的判别器损失函数,为第七目标数据,为第八目标数据,为第五输出值,为第九目标数据,为第六输出值,为第七目标数据服从第三分布的期望,第三分布为第七目标数据的概率分布,为第九目标数据服从第四分布的期望,第四分布为第九目标数据的概率分布。
75.基于wasserstein距离获得的判别器损失函数为:式中,为基于wasserstein距离获得的判别器损失函数。
76.判别器训练模块,还用于判断判别器参数更新次数是否达到第二预设次数;若达到第二预设次数,则执行第一输入模块301;若未达到第二预设次数,则更换第七目标数据,然后返回步骤“将第七目标数据输入生成器中进行第一数据处理”。
77.本发明实施例提供了一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时实现上述模型训练方法和/或数据处理方法。
78.本发明实施例提供了一种电子设备,如图4所示,电子设备40包括至少一个处理器401、以及与处理器401连接的至少一个存储器402、总线403;其中,处理器401、存储器402通过总线403完成相互间的通信;处理器401用于调用存储器402中的程序指令,以执行上述的模型训练方法和/或数据处理方法。本文中的电子设备可以是服务器、pc、pad、手机等。
79.本技术还提供了一种计算机程序产品,当在数据处理设备上执行时,适于执行初始化有上述的模型训练方法和/或数据处理方法包括的步骤的程序。
80.本技术是参照根据本技术实施例的方法、系统和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
81.在一个典型的配置中,设备包括一个或多个处理器(cpu)、存储器和总线。设备还可以包括输入/输出接口、网络接口等。
82.存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(ram)和/或非易失性内存等形式,如只读存储器(rom)或闪存(flash ram),存储器包括至少一个存储芯片。存储器是计算机可读介质的示例。
83.计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存 (pram)、静态随机存取存储器 (sram)、动态随机存取存储器 (dram)、其他类型的随机存取存储器 (ram)、只读存储器 (rom)、电
可擦除可编程只读存储器 (eeprom)、快闪记忆体或其他内存技术、只读光盘只读存储器 (cd-rom)、数字多功能光盘 (dvd) 或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体 (transitory media),如调制的数据信号和载波。
84.本领域技术人员应明白,本技术的实施例可提供为方法、系统或计算机程序产品。因此,本技术可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本技术可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
85.需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
86.本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
87.以上仅为本技术的实施例而已,并不用于限制本技术。对于本领域技术人员来说,本技术可以有各种更改和变化。凡在本技术的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本技术的权利要求范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1