图像处理模型训练方法、装置、计算机设备和存储介质与流程

文档序号:29614110发布日期:2022-04-13 10:49阅读:51来源:国知局
图像处理模型训练方法、装置、计算机设备和存储介质与流程

1.本技术涉及计算机技术领域,尤其涉及一种图像处理模型训练方法、装置、计算机设备和存储介质。


背景技术:

2.随着计算机技术的发展,深度学习技术的发展使得人工智能受到了世界范围内的广泛关注,基于深度学习技术训练得到的网络模型也逐渐应用到各个行业中,例如语音识别模型可以应用到智能音箱、智能车载中,图像识别模型可以应用到监控设备中,文本识别模型可以应用到智能客服产品中等等。在利用任意一种网络模型进行识别处理时,通常需要采用一些原始训练数据对网络模型进行预训练,得到一个预训练的模型,然后根据具体应用场景,可以进一步对预训练的模型进行再次训练。
3.在具体实现时,结合具体应用场景可以在原始训练数据的基础上新加入一些训练数据,然后利用原始训练数据和新加入的训练数据对预训练的模型进行再次训练。虽然这样可以保证预训练的模型能够很好地学到新训练数据和原始训练数据中的信息,但是随着训练数据的不断增加,训练所需的资源和时间都会成比例地增加。因此,如何对预训练模型进行再次训练成为研究热点。


技术实现要素:

4.本技术实施例提供了一种图像处理模型训练方法、装置、计算机设备和存储介质,既能够减少预训练的模型再次训练时所需的训练数据数量,还可以提高再次训练后模型的准确率。
5.一方面,本技术实施例提供了一种图像处理模型训练方法,该方法包括:
6.获取原始训练数据集和增量训练数据集;
7.对所述原始训练数据集包括的多个训练数据和所述增量训练数据集包括的多个训练数据进行聚类处理,得到n个聚类集合;每个聚类集合中包括一个或多个训练数据,所述每个聚类集合包括的一个或多个训练数据均属于同一数据类别;
8.对所述n个聚类集合包括的训练数据进行采样压缩处理,得到采样训练数据集;
9.利用所述采样训练数据集对预训练的数据处理模型进行训练得到目标数据处理模型;所述预训练的数据处理模型是基于所述原始训练数据集训练得到的。
10.一方面,本技术实施例提供了一种图像处理模型训练装置,该装置包括:
11.获取单元,用于获取原始训练数据集和增量训练数据集;
12.处理单元,用于对所述原始训练数据集包括的多个训练数据和所述增量训练数据集包括的多个训练数据进行聚类处理,得到n个聚类集合;每个聚类集合中包括一个或多个训练数据,所述每个聚类集合包括的一个或多个训练数据均属于同一数据类别;
13.所述处理单元,还用于对所述n个聚类集合包括的训练数据进行采样压缩处理,得到采样训练数据集;
14.所述处理单元,还用于利用所述采样训练数据集对预训练的数据处理模型进行训练得到目标数据处理模型;所述预训练的数据处理模型是基于所述原始训练数据集训练得到的。
15.一方面,本技术实施例提供一种计算机设备,该计算机设备包括输入设备、输出设备、处理器和计算机存储介质,该处理器和计算机存储介质相互连接,其中,计算机存储介质用于存储计算机程序,该处理器被配置用于调用计算机程序,执行上述的图像处理模型训练方法。
16.一方面,本技术实施例提供了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,该计算机程序被处理器执行时,用于实现上述的图像处理模型训练方法。
17.一方面,本技术实施例提供了一种计算机程序产品或计算机程序,计算机程序产品包括计算机程序;该计算机程序存储在计算机可读存储介质中,计算机程序被计算机设备的处理器执行时,执行上述的图像处理模型训练方法。
18.在本技术实施例中,计算机设备在获取原始训练数据集和增量训练数据集之后,可以对原始训练数据集包括的多个训练数据和增量训练数据集包括的多个训练数据进行聚类处理,得到n个聚类集合;然后对n个聚类集合包括的训练数据进行采样压缩处理,得到采样训练数据集;并利用采样训练数据集对预训练的数据处理模型进行训练得到目标数据处理模型。通过对n个聚类集合包括的训练数据进行采样压缩处理,得到的采样数据集包括原始训练数据集中的训练数据以及包括增量训练数据集中的训练数据,解决了训练数据带来的信息冗余问题,且无需将所有的增量训练数据和原始训练数据都输入预训练的数据处理模型中,减少了预训练的数据处理模型再次训练时所需的训练数据数量。采样得到的采样训练数据集中可以包括原始训练数据集中的训练数据和增量训练数据集中的训练数据,实现了原始训练数据和增量训练数据协同训练预训练的数据处理模型,提高了再次训练后模型的准确性。
附图说明
19.为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
20.图1是本技术实施例提供的一种图像处理模型训练方法的流程示意图;
21.图2a是本技术实施例提供的一种聚类网络对训练数据在空间特征分布进行采样压缩的流程示意图;
22.图2b是本技术实施例提供的一种聚类网络训练示意图;
23.图2c是本技术实施例提供的一种预训练的数据处理模型的结构示意图;
24.图3是本技术实施例提供的一种图像处理模型训练方法的流程示意图;
25.图4是本技术实施例提供的一种模型交替训练的示意图;
26.图5是本技术实施例提供的一种图像处理模型训练装置的结构示意图;
27.图6是本技术实施例提供的一种计算机设备的结构示意图。
具体实施方式
28.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
29.本技术实施例提供了一种模型训练方案,该模型训练方案可以获取各个训练数据,其中,各个训练数据可以是原始训练数据集中的训练数据和增量训练数据集中的训练数据;所谓原始训练数据集是指用于训练初始的数据处理模型的训练数据构成的集合;增量训练数据集是相对于原始训练数据集新增加的训练数据所构成的集合;然后对各个训练数据进行聚类处理,得到多个数据类别下每个数据类别对应的相似性分布(后续相似性分布称为聚类集合);然后对每个数据类别对应的聚类集合通过采样压缩处理,得到用于模型训练的采样训练数据集;然后利用采样训练数据集对预训练的数据处理模型进行训练。在一个实施例中,可以采用度量学习方法来学习各个训练数据之间的相似关系,并根据各个训练数据之间的相似关系对各个训练数据进行聚类处理,得到多个数据类别下每个数据类别对应的聚类集合。其中,上述度量学习也可以称为相似度学习,即可理解为计算各个训练数据之间的相似度。在得到多个聚类集合后,可以采用密度采样函数(如对数函数)对每个数据类别对应的聚类集合采样压缩处理,得到用于模型训练的采样训练数据集。其中,密度采样函数可满足密度越大的聚类集合采样数量越多,但采样比例越低。
30.在现有技术中当再次对预训练的模型进行训练时,会采用大量训练数据对模型进行再次训练,这样存在大量训练数据带来的信息冗余问题,即当大量训练数据参与预训练的模型训练时,由于自然数据的分布特性,模型要反复学习重复、相似的信息,导致训练数据的不平衡,这样会使再次训练后得到的模型在面对困难训练数据时表现较差。而本技术实施例通过上述模型处理方案中对各个训练数据进行聚类处理,然后对聚类集合中的训练数据进行采样压缩处理,能够在较大程度上解决训练数据冗余的问题,且无需将所有的增量训练数据和原始训练数据都输入预训练的模型中,减少了预训练的模型再次训练时所需的训练数据数量。
31.另外,在现有技术例如使用蒸馏学习手段的增量学习,或者基于记忆的增量学习手段,都是对原模型的一个相对生硬的复制;即对预训练的模型再次训练的过程中,仅通过新训练数据来对预训练的模型的新分支进行训练,然后利用新分支训练结果对预训练的模型中的旧分支进行微调,这样的训练方式得到的模型,无法超过利用原始训练数据集训练得到预训练的模型,因为利用新训练数据单独对预训练的模型进行训练缺乏了原始训练数据和新训练数据之间的协同训练。而在本技术实施例中通过对多个聚类集合包括的训练数据进行采样压缩实际上是对原始训练数据集和增量训练数据集都进行了采样,采样得到的采样训练数据集中可以包括原始训练数据集中的训练数据和增量训练数据集中的训练数据,实现原始训练数据和增量训练数据协同训练模型,提高了再次训练后的模型的准确性,也提供了一种能够不断学习增量训练数据集的范式。
32.基于上述提供的模型训练方案,请参阅图1,图1为本技术实施例提供的一种图像处理模型训练方法的流程示意图,该图像处理模型训练方法可由计算机设备执行,该计算机设备可以是终端设备或者服务器,该终端设备可以是智能手机、平板电脑、笔记本电脑、
台式电脑、车载设备等等;该服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(content delivery network,cdn)、以及大数据和人工智能平台等基础云计算服务的云服务器,等等。该图像处理模型训练方法可以包括以下步骤s101-s104:
33.s101、获取原始训练数据集和增量训练数据集。
34.其中,原始训练数据集可以包括多个训练数据,原始训练数据集可以称为旧训练数据集,该原始训练数据集中的训练数据是用于训练初始的数据处理模型,得到预训练的数据处理模型的数据。增量训练数据集可以包括多个训练数据,增量训练数据可以称为新训练数据集,该增量训练数据可以理解为新产生的训练数据(即除原始训练数据集中的多个训练数据产生的训练数据)。原始训练数据集和增量训练数据集一般是用于同一训练任务(例如,对同一数据处理模型进行训练),例如,训练任务为训练图像处理模型,该原始训练数据集包括的多个训练数据和增量训练数据集包括的多个训练数据可以均属于图像类的训练数据,即该原始训练数据集包括的多个训练数据均为多个训练图像,增量训练数据集包括的多个训练数据均为多个训练图像,该多个训练图像可能是不同的图像类别;多个训练图像均用于训练图像处理模型。又例如,训练任务为训练文本处理模型,原始训练数据集包括的多个训练数据和增量训练数据集包括的多个训练数据可以均属于文本类的训练数据,即原始训练数据集包括的多个训练数据均为多个训练文本,同理增量训练数集包括的多个训练数据均为多个训练文本,该多个训练文本可能是不同的文本类别,多个训练文本均用于训练文本处理模型。
35.作为一种实施例方式,当需要对模型进行训练或者对预训练的模型再次进行训练时,可以提交模型训练请求;计算机设备可以响应于该模型训练请求,获取原始训练数据集和增量训练数据集。作为另一种实施方式,计算机设备可以从第一存储空间中获取原始训练数据集,以及从第二存储空间中获取增量训练数据集,其中,第一存储空间和第二存储空间分别可以是计算机设备的本地存储空间、区块链网络、专用于数据存储的设备,等等。第一存储空间和第二存储空间可以相同也可以不同,本技术实施例对此不作限定。
36.在一个实施例中,计算机设备可以先获取初始原始训练数据集和初始增量训练数据集,然后对初始原始训练数据集中的训练数据和初始增量训练数据集中的训练数据进行预处理,得到原始训练数据集和增量训练数据集。其中,预处理可以包括将初始原始训练数据集中的训练数据的大小和初始增量训练数据集中的训练数据的大小调整为统一大小等。
37.在本技术实施例中,针对训练数据的不同,其预处理也存在一定的差异。例如,当训练数据为训练图像时,计算机设备对多个训练图像的预处理可以包括以下一种或多种:将多个训练图像进行图像标准化,即将训练图像的大小调整为统一尺寸;将多个训练图像进行去噪处理。又例如,当样本数据为训练文本时,计算机设备对多个训练文本的预处理可以包括以下一种或多种:将每个训练文本进行文本标准化,即将每个训练文本的长度调整为统一长度;将每个训练文本中的无效字符去掉,其中无效字符可以根据经验值或者业务需求设置,例如可设置数字、标点符号等字符作为无效字符。
38.s102、对原始训练数据集包括的多个训练数据和增量训练数据集包括的多个训练数据进行聚类处理,得到n个聚类集合;每个聚类集合中包括一个或多个训练数据,每个聚
类集合包括的一个或多个训练数据均属于同一数据类别。
39.其中,n为大于等于1的整数。以训练数据为训练图像为例,数据类别可以属于动物类别、人物类别等等。当n=1时,只有一个聚类集合;该聚类集合可以包括的一个或多个训练图像,该聚类集合中的一个或多个训练图像均属于动物类别或者人物类别。当n=2时,可以得到聚类集合1和聚类集合2,聚类集合1包括的一个或多个训练图像均属于动物类别;聚类集合2包括的一个或多个训练图像均属于人物类别。
40.在具体实现中,计算机设备可以对原始训练数据集包括的多个训练数据和增量训练数据集包括的多个训练数据进行每两个训练数据的相似比较,并根据每两个训练数据的相似比较结果对原始训练数据集和增量训练数据集进行聚类处理,得到n个聚类集合。
41.其中,上述步骤s102的具体实现方式可以包括以下三种:
42.(1)原始训练数据集中的每个训练数据对应有数据类别,增量训练数据集中的每个训练数据对应有数据类别;计算机设备可以直接将每两个训练数据的数据类别进行比对,并将数据类别相同的两个训练数据添加到该数据类别对应的聚类集合中,当将所有训练数据进行两两比对完成后,可以得到n个聚类集合。例如,原始训练数据集包括2个训练数据,分别为训练数据1和训练数据2;训练数据1对应数据类别1、训练数据2对应的数据类别2;增量训练数据集包括2个训练数据,分别为训练数据3和训练数据4,训练数据3对应数据类别1;训练数据4对应数据类别2;计算机设备将训练数据1的数据类别和训练数据2的数据类别进行对比,发现训练数据1的数据类别和训练数据2的数据类别不同;然后计算机设备将训练数据1的数据类别和训练数据3的数据类别进行对比,发现训练数据1的数据类别和训练数据3的数据类别相同;并训练数据1和训练数据3添加到数据类别1对应的聚类集合中;接着计算机设备将训练数据1的数据类别与训练数据4的数据类别进行对比,发现训练数据1的数据类别和训练数据2的数据类别不同。接着将训练数据2的数据类别、训练数据3的数据类别和训练数据4的数据类别按照训练数据1的数据类别比对流程进行比较,最终将训练数据2和训练数据4添加到数据类别2对应的聚类集合中;最终生成2(n=2)个聚类集合;分别是数据类别1对应的聚类集合和数据类别2对应的聚类集合。
43.(2)采用相似度算法对原始训练数据集包括的多个训练数据和增量训练数据集包括的多个训练数据中的每两个训练数据进行相似度计算,得到每两个训练数据的相似度;并将相似度大于相似阈值的每两个训练数据进行聚类处理,得到n个聚类集合。其中,相似度算法可以是余弦相似度算法、皮尔森相关系数等等;相似阈值可以根据经验或者需求设置,本技术实施例对此不做限定。
44.例如,原始训练数据集包括训练数据1,增量训练数据集包括训练数据2和训练数据3;相似度算法为余弦相似度算法,相似阈值为阈值1;计算机设备可以采用余弦相似度算法将训练数据1对应的向量和训练数据2对应的向量进行余弦相似度计算,得到训练数据1和训练数据2之间的余弦相似度,然后计算机设备判断训练数据1和训练数据2之间的余弦相似度是否大于阈值1;计算机设备确定训练数据1和训练数据2之间的余弦相似度大于阈值1,将训练数据1和训练数据2进行聚类处理,得到一个聚类集合;同理,计算机设备可以确定训练数据1和训练数据3之间的余弦相似度,计算机设备确定训练数据1和训练数据3之间的余弦相似度小于阈值1,不将训练数据1和训练数据3进行聚类处理,而将训练数据3添加到另一个聚类集合中,最终得到两个聚类集合。
45.(3)上述(1)(2)由于训练数据数量较多,逐一比较花费的时间较长,因此,本技术实施例可以采用聚类网络对原始训练数据集包括的多个训练数据和增量训练数据集包括的多个训练数据进行特征提取,实现具有相同数据类别的训练数据的特征尽量一致,不同数据类别的训练数据的特征尽量差别较大,可以较快和更加准确地对原始训练数据集包括的多个训练数据和增量训练数据集包括的多个训练数据进行聚类处理。此时,计算机设备对原始训练数据集包括的多个训练数据和增量训练数据集包括的多个训练数据进行聚类处理,得到n个聚类集合的具体实现方式为:调用聚类网络对原始训练数据集包括的多个训练数据和增量训练数据集包括的多个训练数据进行特征提取,得到每个训练数据对应的特征向量;其中,聚类网络可以是各种类型的深度神经网络,例如该聚类网络可以是循环神经网络模型,当训练数据为训练图像时,该聚类网络还可以是resnet50等等;当训练数据为训练文本时,该聚类网络还可以是word2vec(词向量模型)等等。在经过聚类网络之后,每个训练数据的特征向量均是相同大小和尺寸的高维特征向量,这样可以方便后续可以根据每个训练数据的特征向量对每个训练数据进行聚类处理。计算机设备基于每个训练数据对应的特征向量对每个训练数据进行聚类处理,得到n个聚类集合。
46.作为一种实施方式,聚类网络用于提取每个训练数据的高维特征向量,计算机设备可以利用聚类算法基于每个训练数据对应的特征向量对每个训练数据进行聚类处理,得到n个聚类集合。其中,该聚类算法可以是均值漂移聚类、基于密度的聚类方法等等。作为另一种实施方式,该聚类网络不仅可以提取每个训练数据的高维特征向量,该聚类网络中还包括一个聚类算法,计算机设备可以调用聚类网络中的聚类算法对每个训练数据对应的特征向量进行处理,直接得到n个聚类集合。
47.需要说明的是,通过聚类网络和聚类算法对每个训练数据进行聚类分析,实际上可以得到一个特征空间分布,在特征空间分布中可以包括n个聚类集合(n个聚类集合可以理解为在特征空间分布映射为n个相似性分布区域,将同一数据类别的训练数据聚集在同一个相似性分布区域)。例如,在图2a中,计算机设备调用聚类网络对每个训练数据进行特征提取,得到每个训练数据对应的特征向量,然后采用聚类算法根据每个训练数据对应的特征向量对每个训练数据进行聚类处理,得到特征空间分布中的3个相似性分布区域,分别为相似性分布区域11、相似性分布区域12和相似性分布区域13。
48.在调用聚类网络对原始训练数据集包括的多个训练数据和增量训练数据集包括的多个训练数据进行特征提取之前,需要先对深度神经网络进行训练以得到聚类网络。训练得到的聚类网络的具体目标是将具有相同数据类别的训练数据的特征尽量一致,不同数据类别的训练数据的特征尽量差别较大,从而有助于后续利用聚类算法对训练数据进行聚类的准确率和成功率。整个聚类网络训练过程可以参见图2b所示:计算机设备可以先获取样本数据集,该样本数据集可以包括多个样本数据以及每个样本数据的数据类别标签,可选地,在图2b中,该样本数据集同样可以包括原始样本数据集和增量样本训练集,原始样本数据集包括样本数据和样本数据对应的数据类别标签,增量样本数据集包括样本数据和样本数据对应的数据类别标签;该聚类网络可以基于样本数据集训练得到的;然后计算机设备调用聚类网络对每个样本数据进行特征提取,得到每个样本数据的特征向量;对每两个样本数据的特征向量进行相似度计算,得到每两个样本数据之间的相似性度量特征;然后根据每两个样本数据之间的相似性度量特征以及每个样本数据的数据类别标签确定对比
损失函数的值,并按照减小对比损失函数的值的方向优化聚类网络的网络参数。
49.其中,对每两个样本数据的特征向量进行相似度计算,得到每两个样本数据之间的相似性度量特征有以下两种方式:(1)计算机设备调用聚类网络对每个样本数据进行特征提取,得到每个样本数据在特征空间中的特征向量;然后通过在特征空间中采用欧式距离度量每两个样本数据之间的相似度,即计算机设备可以计算每两个样本数据在特征空间中的特征向量的欧式距离,此时,每两个样本数据之间的相似度量特征其实就是每两个样本数据对应的欧式距离。(2)计算机设备调用聚类网络对每个样本数据进行特征提取,得到每个样本数据在特征空间中的特征向量;然后根据每两个采样数据在特征空间中的特征向量计算每两个采样数据之间的均方误差,得到每两个样本数据之间的相似性度量特征。应理解的是,每两个采样数据之间的均方误差为每两个采样数据的相似性度量特征。
50.在一个实施例中,计算机设备根据每两个样本数据之间的相似性度量特征以及每个样本数据的数据类别标签确定对比损失函数的值的具体实现方式为:根据每两个样本数据之间的相似性度量特征以及每个样本数据的数据类别标签,得到每两个样本数据之间的对比损失值;对得到的对比损失值进行预设运算处理,得到对比损失函数的值。作为一种实现方式,预设运算可以是直接求和;计算机设备在得到每两个样本数据之间的对比损失值之后,可以将多个样本数据中每两个样本数据之间的对比损失值直接进行求和处理,得到对比损失函数的值。例如,计算机设备得到样本数据1和样本数据2之间的对比损失值为10;样本数据3和样本数据4之间的对比损失值为3;然后计算机设备直接将样本数据1和样本数据2之间的对比损失值10以及样本数据3和样本数据4之间的对比损失值3直接求和,得到对比损失函数的值。作为另一种实施方式,预设运算可以是加权求和;计算机设备在得到每两个样本数据之间的对比损失值之后,可以将每两个样本数据之间的对比损失值进行加权处理,得到每两个样本数据之间的加权值;然后将多个样本数据中每两个样本数据之间的加权值进行求和处理,得到对比损失函数的值。
51.为了实现相同数据类别标签的相似度较高,其对应的特征空间中的欧式距离则较小;不同数据类别标签的相似度较低,其对应的特征空间中的欧式距离则较大。基于这样的思想,在训练聚类网络的过程中还可以引入两种参数的对比损失函数,该两种参数可以记为第一参数和第二参数。通过本技术实施例提供的对比损失函数,对于相同数据类别的样本数据,对比损失函数尽可能地将其聚集在第一参数的软边界中,对于不同数据类别标签的样本数据,对比损失函数则尽可能地使距离处于高于第二参数的软边界。在一个实施例中,样本数据集包括第一样数据和第二样本数据;上述根据每两个样本数据之间的相似性度量特征以及每个样本数据的数据类别标签,得到每两个样本数据之间的对比损失值的具体实现方式为:计算机设备判断第一样本数据的数据类别标签和第二样本数据的数据类别标签是否相同,若确定第一样本数据的数据类别标签与第二样本数据的数据类别标签相同,则获取第一样本数据与第二样本数据之间的相似性度量特征与第一参数之间的第一差值;具体的,计算机设备可以采用对比损失函数计算第一样本数据与第二样本数据之间的相似性度量特征与第一参数之间的第一差值。然后对第一差值进行线性运算,得到第一样本数据和所述第二样本数据之间的对比损失值。其中,第一参数可以根据需求设置,第一参数可以理解为距离阈值,对于相同数据类别的样本数据,尽可能地将第一样本数据和第二样本数据之间的相似性度量特征聚集在第一参数中。计算机设备可以计算第一样本数据与
第二样本数据之间的相似度性度量特征与第一参数之间的第一差值,然后采用线性整流函数对第一差值进行线性运算,得到第一样本数据和所述第二样本数据之间的对比损失值。
52.若确定第一样本数据的数据类别标签与第二样本数据的数据类别标签不相同,则获取第一样本数据与第二样本数据之间的相似性度量特征与第二参数之间的第二差值;具体的,计算机设备可以采用对比损失函数计算第一样本数据与第二样本数据之间的相似性度量特征与第二参数之间的第一差值。然后对第二差值进行线性运算,得到第一样本数据和第二样本数据之间的对比损失值。其中,第二参数可以根据需求设置,第二参数可以理解为距离阈值,对于不同数据类别的样本数据,尽可能地使相似性度量特征处于高于第二参数中。计算机设备可以计算第一样本数据与第二样本数据之间的相似度性度量特征与第二参数之间的第二差值,然后采用线性整流函数对第二差值进行线性运算,得到第一样本数据和第二样本数据之间的对比损失值。
53.针对第一样本数据和第二样本数据的对比损失函数的公式如下:
[0054][0055]
其中,contrastiveloss为第一样本数据和第二样本数据之间的对比损失值,output1和output2分别表示第一样本数据和第二样本数据,softmargin1表示第一参数;softmargin2表示第二参数,relu()表示线性整流函数,label1表示第一样本数据的数据类别标签,label2表示第二样本数据的数据类别标签。
[0056]
需要说明的是,上述仅以样本数据集包括第一样本数据和第二样本数据来举例,此时最终对比损失函数的值就是第一样本数据和第二样本数据计算得到的对比损失值;当样本数据集包括多个样本数据时,每两个样本数据的对比损失值就可以按照第一样本数据和第二样本数据的对比损失值来计算,最后将得到的所有对比损失值进行预设运算处理,即可得到对比损失函数的值。
[0057]
在一个实施例中,在利用多个样本数据训练聚类网络时,需要对多个样本数据进行预处理,以使得聚类网络在提取特征时,能够提取到相同大小和尺寸的特征向量。在本技术实施例中,针对样本数据的不同,其预处理也存在一定的差异。例如,当样本数据为样本图像时,计算机设备对多个样本图像的预处理可以包括:将多个样本图像进行图像标准化,即将样本图像的大小调整为统一尺寸;将多个样本图像进行去噪处理。又例如,当样本数据为样本文本时,计算机设备对多个样本文本的预处理可以包括:将每个样本文本进行文本标准化,即将每个样本文本的大小调整为统一大小;将每个样本文本中的无效字符去掉,其中无效字符可以根据经验值或者业务需求设置,例如可设置数字、标点符号等字符作为无效字符。
[0058]
在一个实施例中,n个聚类集合中每个聚类集合包括的训练数据会存在重复的情况,为了后续在执行步骤s103时,采样训练数据集中的采样训练数据均不相同,需要在得到n个聚类集合之前需要进行去重处理。计算机设备对原始训练数据集包括的多个训练数据和增量训练数据集包括的多个训练数据进行聚类处理,得到n个聚类集合的具体实现方式为:对原始训练数据集包括的多个训练数据和增量训练数据集包括的多个训练数据进行聚类处理,得到n个初始聚类集合;然后对n个初始聚类集合中每个初始聚类集合进行去重处理,得到n个聚类集合。例如,n个初始聚类集合中初始聚类集合a包括训练数据1、训练数据
1、训练数据2和训练数据3,计算机设备将初始聚类集合a进行去重处理,得到聚类集合a,聚类集合a包括训练数据1、训练数据2和训练数据3。
[0059]
s103、对n个聚类集合包括的训练数据进行采样压缩处理,得到采样训练数据集。
[0060]
在一个实施例中,计算机设备可以获取需要采样的采样训练数据的总数量,然后基于需要采样的采样训练数据的总数量和每个聚类集合包括的训练数据的数量确定从每个聚类集合中需要采集的训练数据的数量,并根据每个聚类集合中需要采集的训练数据的数量对每个聚类集合进行采样压缩处理,从每个聚类集合中获取采样训练数据,并将从每个聚类集合中获取到的采样训练数据添加到采样训练数据集中。例如,n=2,2个聚类集合分别为聚类集合1和聚类集合2;聚类集合1包括的训练数据的数量为30,聚类集合2包括的训练数据的数量为10;计算机设备获取需要采样的采样训练数据的总数量为10,意味着一共采集10个训练数据作为采样训练数据集中的采样训练数据;计算机设备根据需要采样的采样训练数据的总数量、聚类集合1包括的训练数据的数量和聚类集合2包括的训练数据的数量确定从聚类集合1中需要采集的训练数据的数量为8,从聚类集合2中需要采集的训练数据的数量为2;然后计算机设备对聚类集合1包括的训练数据进行采样压缩处理,从聚类集合1中获取8个采样训练数据,对聚类集合2包括的训练数据进行采样压缩处理,从聚类集合2中获取2个采样训练数据,并将8个采样训练数据和2个采样训练数据添加到采样训练数据集。
[0061]
在另一个实施例中,可以设置对n个聚类集合包括的训练数据进行采样的采样比例,计算机设备可以按照需要采样的采样训练数据的总数量和采样比例对n个聚类集合包括的训练数据进行采样压缩处理,得到采样训练数据集。例如,n=3,即存在3个聚类集合,分别为聚类集合1、聚类集合2和聚类集合3;需要采样的采样训练数据的总数量为10;然后计算机设备获取对这3个聚类集合包括的训练数据的采样比例,假设采样比例为1:2:2;然后计算机设备按照采样比例和需要采样的采样训练数据的总数量10对聚类集合1进行采样压缩处理,从聚类集合1中获取2个采样训练数据;计算机设备按照采样比例和需要采样的采样训练数据的总数量10对聚类集合2进行采样压缩处理,从聚类集合2中获取4个采样训练数据;计算机设备按照采样比例和需要采样的采样训练数据的总数量10对聚类集合3进行采样压缩处理,从聚类集合3中获取4个采样训练数据;然后将从这3个集合中获取到的采样训练数据添加到采样训练数据集中。
[0062]
s104、利用采样训练数据集对预训练的数据处理模型进行训练得到目标数据处理模型;预训练的数据处理模型是基于原始训练数据集训练得到的。
[0063]
从训练数据分布的角度来看,原始训练数据集和增量训练数据集是处于不同但相似的两种分布,其中相似的两种分布可以理解为:原始训练数据集和增量训练数据集为独立的数据集,但两者服从概率分布;原始训练数据集和增量训练数据集不同主要是受各自训练数据集内部的随机性的影响。因此本技术可以预训练的数据处理模型可以包括一个纠正偏置模块,该纠正偏置模块是用于纠正增量训练数据集中的训练数据带来的偏移。预训练的数据处理模型的架构可以参见图2c所示,该预训练的数据处理模型可以包括纠正偏置模块和其他数据处理模块。纠正偏置模块可以包括简单几层relu函数(一种激活函数)组成的网络,例如该纠正偏置模块使用两到三层由relu函数组成的网络;其他数据处理模块可以包括特征提取层、隐藏层、全连接层等等。本技术实施例对纠正偏置模块和其他数据处理
模块不作限定。
[0064]
在具体实现中,计算机设备先采用原始训练数据集对数据处理模型进行训练,得到预训练的数据处理模型,然后利用采样训练数据集对预训练的数据处理模型所包括的纠正偏置模块和其他数据处理模块进行交替训练,得到目标数据处理模型。
[0065]
在本技术实施例中,计算机设备在获取原始训练数据集和增量训练数据集之后,可以对原始训练数据集包括的多个训练数据和增量训练数据集包括的多个训练数据进行聚类处理,得到n个聚类集合;然后对n个聚类集合包括的训练数据进行采样压缩处理,得到采样训练数据集;并利用采样训练数据集对预训练的数据处理模型进行训练得到目标数据处理模型。通过对n个聚类集合包括的训练数据进行采样压缩处理,得到的采样数据集包括原始训练数据集中的训练数据以及包括增量训练数据集中的训练数据,解决了训练数据带来的信息冗余问题,且实现了新旧数据协同进行模型训练,提高了训练后的模型的准确性。
[0066]
基于上述提供的模型训练方案,请参阅图3,图3为本技术实施例提供的一种图像处理模型训练方法的流程示意图,该图像处理模型训练方法可由计算机设备执行,该计算机设备可以是终端设备或服务器,该终端设备可以是智能手机、平板电脑、笔记本电脑、台式电脑、车载设备等等;该服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(content delivery network,cdn)、以及大数据和人工智能平台等基础云计算服务的云服务器,等等。该图像处理模型训练方法可以包括以下步骤s301-s306:
[0067]
s301、获取原始训练数据集和增量训练数据集。
[0068]
s302、对原始训练数据集包括的多个训练数据和增量训练数据集包括的多个训练数据进行聚类处理,得到n个聚类集合;每个聚类集合中包括一个或多个训练数据,每个聚类集合包括的一个或多个训练数据均属于同一数据类别。
[0069]
其中,上述步骤s301-s302的具体实现方式可参见上述实施例图1中的步骤s101-s102,在此不再赘述。
[0070]
s303、基于采样参数和n个聚类集合中每个聚类集合包括的训练数据的数量确定每个聚类集合中需采样的训练数据的目标数量。
[0071]
其中,采样参数是一个可变参数,该采样参数可以是用于控制采样程度的参数,该采样参数的取值越大采样得到的训练数据越少,采样参数的取值越小采样得到的训练数据越多。
[0072]
在一个实施例中,基于对原始训练数据集包括的多个训练数据和增量训练数据集包括的多个训练数据进行聚类处理的结果,获得了训练数据的相似性分布(即获得了n个聚类集合),经过多次实验验证,通过计算同一数据类别对应的训练数据的特征平均值,可以得到同一数据类别的类别中心点。并通过分析每个训练数据与该类别中心点的距离直方图分布情况,可以发现每个训练数据与该类别中心点之间的距离分布符合对数高斯分布。因此,在本技术实施例中考虑使用密度采样函数为对数函数来计算对每个聚类集合需要采样的训练数据的数量。在这种情况下,计算机设备可以先确定n个聚类集合中每个聚类集合包括的训练数据的数量,然后针对n个聚类集合中的目标聚类集合,计算机设备可以利用对数函数,根据采样参数和目标聚类集合包括的训练数据的目标数量确定出目标聚类集合中需
采样的训练数据的目标数量。该对数函数的表达式如下:
[0073]
s=log
α
(d+1)
[0074]
其中,s为n个聚类集合中目标聚类集合中需要随机采样的训练数据的数量,d为目标聚类集合中训练数据的目标数量,α为采样参数。
[0075]
需要说明的是,确定n个聚类集合中任意一个聚类集合中需采样的训练数据的目标数量均可参照上述根据采样参数和目标聚类集合包括的训练数据的目标数量确定出目标聚类集合中需采样的训练数据的目标数量的实现过程。在根据采样参数和每个聚类集合包括的训练数据的数量确定每个聚类集合中需采样的训练数据的目标数量所使用的采样参数可以相同也可以不同,该采样参数可以根据每个聚类集合包括的训练数据的数量确定,或者该采样参数可以根据需求设置,本技术实施例不做限定。
[0076]
s304、按照每个聚类集合中需采样的训练数据的目标数量分别对每个聚类集合进行压缩采样处理,从每个聚类集合中获取采样训练数据。
[0077]
在具体实现中,计算机设备按照每个聚类集合中需要采样的训练数据的目标数量分别对每个聚类集合进行压缩采样处理,并从每个聚类集合中随机获取相对应的目标数量的采样训练数据。例如,设聚类集合的数量为2,分别为聚类集合1和聚类集合2;聚类集合1中需要采样的训练数据的目标数量为2,聚类集合2中需要采样的训练数据的目标数量为3;计算机设备可以按照聚类集合1需要采样的训练数据的目标数量2对聚类集合1进行压缩采样处理,从聚类集合1中随机获取2个采样训练数据;按照聚类集合2需要采样的训练数据的目标数量3对聚类集合2进行压缩采样处理,从聚类集合2中随机获取3个采样训练数据。
[0078]
在一个实施例中,计算机设备还可以将每个聚类集合划分成多个聚类子集合,然后对每个聚类子集合中的训练数据进行采样处理。在具体实现中,n个聚类集合中包括目标聚类集合,目标聚类集合是n个聚类集合中任意一个,按照每个聚类集合中需采样的训练数据的目标数据分别对每个聚类集合包括的训练数据进行压缩采样处理,从每个聚类集合中获取采样训练数据的具体实现方式可以是:按照划分规则将目标聚类集合划分为多个聚类子集合;计算多个聚类子集合中的训练数据的数量比值;基于数量比值和目标聚类集合中需采样的训练数据的目标数量对每个聚类子集合进行压缩采样处理,从每个聚类子集合中获取采样训练数据;将每个聚类子集合中获取到的采样训练数据确定为从目标聚类集合中获取到的采样训练数据。
[0079]
作为一种实施方式,该划分规则可以是基于目标聚类集合中的训练数据数量对目标聚类集合进行划分;计算机设备可以将目标聚类集合中的训练数据平均划分或者按照预设数量比例划分,得到多个聚类子集合。作为另一种实施例方式,该划分规则可以是基于目标聚类集合中的训练数据在特征空间分布情况对目标聚类集合进行划分;计算机设备可以确定目标聚类集合中的每两个训练数据的空间分布距离(或欧式距离),然后将目标聚类集合中空间分布距离满足第一预设值对应的两个训练数据划分到一个聚类子集合中,将空间分布距离满足第二预设值对应的两个训练数据划分到另一个聚类子集合中,以此类推,最终得到目标聚类集合的多个聚类子集合。其中,第一预设值、第二预设值、第三预设值可以根据需求设定。
[0080]
举例来说,目标聚类集合中需采样的训练数据的目标数量为11个;目标聚类集合包括训练数据的数量为20个;划分规则为按照训练数据在空间分布情况划分;计算机设备
可以按照训练数据在空间分布情况将目标聚类集合包括的训练划分为聚类子集合1、聚类子集合2和聚类子集合3,其中聚类子集合1中的每两个训练数据之间的空间分布距离小于第一预设值;聚类子集合2中的每两个训练数据之间的空间分布距离小于第二预设值;聚类子集合3中的每两个训练数据之间的空间分布距离小于三预设值;其中,聚类子集合1中的训练数量为10个;聚类子集合2中的训练数量为6个;聚类子集合2中的训练数量为6个;然后计算机设备可以计算这3个聚类子集合中的训练数据的数量比值,该数量比值为5:3:3,然后计算机设备可以根据目标聚类集合中徐采样的训练数据的目标数量和数量比值对每个聚类子集合进行采样压缩处理,从聚类子集合1中获取5个采样训练数据,从聚类子集合2中获取3个采样训练数据,从聚类子集合3中获取3个采样训练数据。然后将这3个聚类子集合中获取到的采样训练数据确定为从目标聚类集合中获取到的采样训练数据。
[0081]
s305、将从每个聚类集合中获取的采样训练数据添加到采样训练数据集。
[0082]
在具体实现中,计算机设备可以将每个聚类集合中获取的目标数量的采样训练数据添加到采样训练数据集中。该采样训练数据集可以包括每个聚类集合中的训练数据。
[0083]
s306、利用采样训练数据集对预训练的数据处理模型进行训练得到目标数据处理模型;预训练的数据处理模型是基于原始训练数据集训练得到的。
[0084]
其中,采样训练数据集包括第一类采样训练数据子集和第二类采样训练数据子集,第一类采样训练数据子集中的训练数据来自增量训练数据集,第二类采样训练数据子集中的训练数据来自原始训练数据集。
[0085]
在具体实现中,计算机设备可以采用采样训练数据集和采样训练数据集中的第二类采样训练数据子集对预训练的数据处理模型进行交替训练,得到目标数据处理模型。
[0086]
在一个实施例中,由前述可知,该预训练的数据处理模型中包括纠正偏置模块和其他数据处理模块,计算机设备采用采样训练数据集和采样训练数据集中的第二类采样训练数据子集对预训练的数据处理模型进行交替训练,得到目标数据处理模型的具体实现过程可以参见图4所示:首先,保持其他数据处理模块的模型参数不变,采用采样训练数据集对纠正偏置模块进行训练;当对纠正偏置模块训练完成时,保持纠正偏置模块中的模型参数不变,采用采样训练数据集中的第二类采样训练数据子集对其他数据处理模块进行训练,得到目标数据处理模型。其中,对纠正偏置模块训练完成是指当纠正偏置模块训练收敛。采取交替训练模式主要是基于这样的思想:纠正偏置模块是用于纠正增量训练数据集中的训练数据带来的偏移。当纠正偏置模块收敛之后,可以认为增量训练数据集中的训练数据的偏移在一定程度上已经被纠正。此时让减少偏移的数据参与训练,效果能够较好地提升。
[0087]
在本技术实施例中,计算机设备可以获取原始训练数据集和增量训练数据集;并对原始训练数据集包括的多个训练数据和增量训练数据集包括的多个训练数据进行聚类处理,得到n个聚类集合,基于采样参数和n个聚类集合中每个聚类集合包括的训练数据的数量确定所述每个聚类集合中需采样的训练数据的目标数量;按照每个聚类集合中需采样的训练数据的目标数量分别对每个聚类集合进行压缩采样处理,从每个聚类集合中获取采样训练数据;将从每个聚类集合中获取的采样训练数据添加到采样训练数据集,并利用采样训练数据集对预训练的数据处理模型进行训练得到目标数据处理模型。通过采样参数可以控制对每个聚类集合中需要采样的训练数据的目标数量,从而可以较好的控制采样到的
采集训练数据集,解决了训练数据带来的信息冗余问题,提高了模型训练效率和训练后模型的准确性。
[0088]
本技术实施例提供的图像处理模型训练方法可以应用于图像处理模型、图像分类模型等模型训练。当将该图像处理模型训练方法应用于图像处理模型的模型训练时,整个模型训练过程为:获取初始原始训练图像集和初始增量训练图像集,计算机设备对初始原始训练图像集包括的多个训练图像和初始增量训练图像集包括的多个训练图像进行预处理,得到原始训练图像集和增量训练图像集,然后调用聚类网络对原始训练图像集包括的多个训练图像和增量训练图像集包括的多个训练图像进行特征提取,得到每个训练图像对应的特征向量;然后采用聚类算法根据每个训练图像对应的特征向量对每个训练图像进行聚类处理,得到在特征空间的多个相似性分布区域(即n个聚类集合);通过聚类网络和聚类算法实现了将相同图像类别的训练图像尽可能的聚集在同一个相似分布区域。
[0089]
然后,计算机设备采用对数函数计算每个相似性分布区域需要采集的训练图像的目标数量,然后按照每个相似性分布区域需要采集的训练图像的目标数量对每个相似分布区域包括的训练图像进行压缩采样处理,从每个相似分布区域包括的训练图像中获取目标数量的训练图像,并将从每个相似分布区域包括的训练图像中获取到的目标数量的训练图像添加到采样训练图像集中;其中,采样训练图像集包括第一类采样训练图像子集和第二类采样训练图像子集,第一类采样训练图像子集中的采样训练图像来自于增量训练图像集;第二类采样训练图像子集中的采样训练图像来自于原始训练图像集;然后计算机设备先使用原始训练图像集训练图像处理模型,得到预训练的图像处理模型。然后将预训练的图像处理模型中最后三层的relu函数作为用于纠正偏置的浅层网络(即上述所提到的纠正偏置模块),然后固定预训练的图像处理模型中除浅层网络之外的其他图像处理模块的模型参数,采用采样训练图像集对浅层网络进行训练,当对浅层网络训练完成时,可以固定浅层网络的模型参数,采用采样训练图像集中的第二类采样训练图像子集对预训练的图像处理模型中除浅层网络之外的其他图像处理模块进行训练,得到目标图像处理模型。
[0090]
在得到目标图像处理模型之后,为了进一步验证该图像处理模型训练方法的有效性,在一些业务数据上进行了实验。结果显示,该图像处理模型训练方法在压缩训练图像数量的基础上基本能够接近共同训练得到的结果,并超过使用增量训练图像集对原始训练图像集进行微调的方法。且在低错误接受率时,该目标图像处理模型准确率会更高。提升了目标图像处理模型在低错误率时的精度,同时提供了一种能够不断学习增量训练图像集的范式。
[0091]
基于上述所提供的图像处理模型训练方法,请参见图5,其是本技术实施例提供的一种图像处理模型训练装置的结构示意图。如图5所示,图像处理模型训练装置可以应用于上述图1或图3对应实施例中的计算机设备;具体的,图像处理模型训练装置可以是运行于计算机设备中的一个计算机程序(包括程序代码),例如图像处理模型训练装置为一个应用软件;该图像处理模型训练装置可以用于执行本技术实施例提供的方法中的相应步骤。
[0092]
获取单元501,用于获取原始训练数据集和增量训练数据集;
[0093]
处理单元502,用于对所述原始训练数据集包括的多个训练数据和所述增量训练数据集包括的多个训练数据进行聚类处理,得到n个聚类集合;每个聚类集合中包括一个或多个训练数据,所述每个聚类集合包括的一个或多个训练数据均属于同一数据类别;
[0094]
所述处理单元502,还用于对所述n个聚类集合包括的训练数据进行采样压缩处理,得到采样训练数据集;
[0095]
所述处理单元502,还用于利用所述采样训练数据集对预训练的数据处理模型进行训练得到目标数据处理模型;所述预训练的数据处理模型是基于所述原始训练数据集训练得到的。
[0096]
在一个实施例中,所述处理单元502在对所述原始训练数据集包括的多个训练数据和所述增量训练数据集包括的多个训练数据进行聚类处理,得到n个聚类集合时,可具体用于:
[0097]
调用聚类网络对所述原始训练数据集包括的多个训练数据和所述增量训练数据集包括的多个训练数据进行特征提取,得到每个训练数据对应的特征向量;
[0098]
基于所述每个训练数据对应的特征向量对所述每个训练数据进行聚类处理,得到n个聚类集合。
[0099]
再一个实施例中,所述聚类网络是基于样本数据集训练得到的,所述样本数据集包括多个样本数据以及每个样本数据的数据类别标签,所述处理单元502还用于:
[0100]
调用聚类网络对所述每个样本数据进行特征提取,得到所述每个样本数据的特征向量;
[0101]
对每两个样本数据的特征向量进行相似度计算,得到所述每两个样本数据之间的相似性度量特征;
[0102]
根据所述每两个样本数据之间的相似性度量特征以及每个样本数据的数据类别标签确定对比损失函数的值,并按照减小所述对比损失函数的值的方向优化所述聚类网络的网络参数。
[0103]
再一个实施例中,所述处理单元502在根据所述每两个样本数据之间的相似性度量特征以及每个样本数据的数据类别标签确定对比损失函数的值时,可具体用于:
[0104]
根据所述每两个样本数据之间的相似性度量特征以及每个样本数据的数据类别标签,得到所述每两个样本数据之间的对比损失值;
[0105]
对得到的对比损失值进行预设运算处理,得到对比损失函数的值。
[0106]
再一个实施例中,所述样本数据集包括第一样本数据和第二样本数据,所述处理单元502在根据所述每两个样本数据之间的相似性度量特征以及每个样本数据的数据类别标签,得到所述每两个样本数据之间的对比损失值时,可具体用于:
[0107]
若所述第一样本数据的数据类别标签与所述第二样本数据的数据类别标签相同,则获取所述第一样本数据与所述第二样本数据之间的相似性度量特征与第一参数之间的第一差值;并对所述第一差值进行线性运算,得到所述第一样本数据和所述第二样本数据之间的对比损失值;
[0108]
若所述第一样本数据的数据类别标签与所述第二样本数据的数据类别标签不相同,则获取所述第一样本数据与所述第二样本数据之间的相似性度量特征与第二参数之间的第二差值;并对所述第二差值进行线性运算,得到所述第一样本数据和所述第二样本数据之间的对比损失值。
[0109]
再一个实施例中,所述处理单元502在对所述n个聚类集合包括的训练数据进行采样压缩处理,得到采样训练数据集时,可具体用于:
[0110]
基于采样参数和所述n个聚类集合中每个聚类集合包括的训练数据的数量确定所述每个聚类集合中需采样的训练数据的目标数量;
[0111]
按照所述每个聚类集合中需采样的训练数据的目标数量分别对所述每个聚类集合进行压缩采样处理,从所述每个聚类集合中获取采样训练数据;
[0112]
将从所述每个聚类集合中获取的采样训练数据添加到采样训练数据集。
[0113]
再一个实施例中,所述n个聚类集合中包括目标聚类集合,所述目标聚类集合是所述n个聚类集合中任意一个,所述处理单元502在按照所述每个聚类集合中需采样的训练数据的目标数量分别对所述每个聚类集合包括的训练数据进行压缩采样处理,从所述每个聚类集合中获取采样训练数据时,可具体用于:
[0114]
按照划分规则将所述目标聚类集合划分为多个聚类子集合;
[0115]
计算所述多个聚类子集合中的训练数据的数量比值;
[0116]
基于所述数量比值和所述目标聚类集合中需采样的训练数据的目标数量对所述每个聚类子集合进行压缩采样处理,从所述每个聚类子集合中获取采样训练数据;
[0117]
将所述每个聚类子集合中获取到的采样训练数据确定为从所述目标聚类集合中获取到的采样训练数据。
[0118]
再一个实施例中,所述采样训练数据集包括第一类采样训练数据子集和第二类采样训练数据子集,第一类采样训练数据子集中的训练数据来自所述增量训练数据集,第二类采样训练数据子集中的训练数据来自所述原始训练数据集;
[0119]
所述处理单元502在利用所述采样训练数据集对预训练的数据处理模型进行训练得到目标数据处理模型时,可具体用于:
[0120]
采用所述采样训练数据集和所述采样训练数据集中的第二类采样训练数据子集对预训练的数据处理模型进行交替训练,得到目标数据处理模型。
[0121]
再一个实施例中,所述预训练的数据处理模型中包括纠正偏置模块和其他数据处理模块,所述处理单元502在采用所述采样训练数据集和所述采样训练数据集中的第二类采样训练数据子集对预训练的数据处理模型进行交替训练,得到目标数据处理模型时,可具体用于:
[0122]
保持所述其他数据处理模块的模型参数不变,采用所述采样训练数据集对所述纠正偏置模块进行训练;
[0123]
当对所述纠正偏置模块训练完成时,保持所述纠正偏置模块中的模型参数不变,采用所述采样训练数据集中的第二类采样训练数据子集对所述其他数据处理模块进行训练,得到目标数据处理模型。
[0124]
根据本技术的一个实施例,图1和图3所示的图像处理模型训练方法所涉及各个步骤可以是由图5所示的图像处理模型训练装置中的各个单元来执行的。例如,图1所述的步骤s101可由图5所示的图像处理模型训练装置中的获取单元501来执行,步骤s202至骤s204可由图5所示的图像处理模型训练装置中的处理单元502来执行;再如,图3所示的图像处理模型训练方法中步骤s301可由图5所示的图像处理模型训练装置中的获取单元501来执行,步骤s302至步骤s306可由图5所示的图像处理模型训练装置中的处理单元502来执行。
[0125]
根据本技术的另一个实施例,图5所示的图像处理模型训练装置中的各个单元可以分别或全部合并为一个或若干个另外的单元来构成,或者其中的某个(些)单元还可以再
拆分为功能上更小的多个单元来构成,这可以实现同样的操作,而不影响本技术的实施例的技术效果的实现。上述单元是基于逻辑功能划分的,在实际应用中,一个单元的功能也可以由多个单元来实现,或者多个单元的功能由一个单元实现。在本技术的其它实施例中,基于图像处理模型训练装置也可以包括其它单元,在实际应用中,这些功能也可以由其它单元协助实现,并且可以由多个单元协作实现。
[0126]
根据本技术的另一个实施例,可以通过在包括中央处理单元(cpu)、随机存取存储介质(ram)、只读存储介质(rom)等处理元件和存储元件的例如计算机的通用计算设备上运行能够执行如图1和图3所示的相应方法所涉及的各步骤的计算机程序(包括程序代码),来构造如图5中所示的图像处理模型训练装置,以及来实现本技术实施例图像处理模型训练方法。所述计算机程序可以记载于例如计算机可读存储介质上,并通过计算机可读存储介质装载于上述计算机设备中,并在其中运行。
[0127]
在本技术实施例中,计算机设备在获取原始训练数据集和增量训练数据集之后,可以对原始训练数据集包括的多个训练数据和增量训练数据集包括的多个训练数据进行聚类处理,得到n个聚类集合;然后对n个聚类集合包括的训练数据进行采样压缩处理,得到采样训练数据集;并利用采样训练数据集对预训练的数据处理模型进行训练得到目标数据处理模型。通过对n个聚类集合包括的训练数据进行采样压缩处理,得到的采样数据集包括原始训练数据集中的训练数据以及包括增量训练数据集中的训练数据,解决了训练数据带来的信息冗余问题,且无需将所有的增量训练数据和原始训练数据都输入预训练的数据处理模型中,减少了预训练的数据处理模型再次训练时所需的训练数据数量。采样得到的采样训练数据集中可以包括原始训练数据集中的训练数据和增量训练数据集中的训练数据,实现了原始训练数据和增量训练数据协同训练预训练的数据处理模型,提高了再次训练后模型的准确性。
[0128]
进一步地,请参见图6,是本技术实施例提供的一种计算机设备的结构示意图。该计算机设备具体可以为上述图2或图5对应实施例中的计算机设备。如图6所示,该计算机设备可以包括:处理器601、输入设备602,输出设备603和计算机存储介质604。上述处理器601、输入设备602、输出设备603和计算机存储介质604通过总线605连接。
[0129]
上述计算机存储介质604可以存储在计算机设备的存储器中,所述计算机存储介质604用于存储计算机程序,所述处理器601用于执行所述计算机存储介质604存储的计算机程序。处理器601(或称cpu(central processing unit,中央处理器))是计算机设备的计算核心以及控制核心,其适于实现一条或多条计算机程序,具体适于加载并执行:获取原始训练数据集和增量训练数据集;对所述原始训练数据集包括的多个训练数据和所述增量训练数据集包括的多个训练数据进行聚类处理,得到n个聚类集合;每个聚类集合中包括一个或多个训练数据,所述每个聚类集合包括的一个或多个训练数据均属于同一数据类别;对所述n个聚类集合包括的训练数据进行采样压缩处理,得到采样训练数据集;利用所述采样训练数据集对预训练的数据处理模型进行训练得到目标数据处理模型;所述预训练的数据处理模型是基于所述原始训练数据集训练得到的。
[0130]
在本技术实施例中,计算机设备在获取原始训练数据集和增量训练数据集之后,可以对原始训练数据集包括的多个训练数据和增量训练数据集包括的多个训练数据进行聚类处理,得到n个聚类集合;然后对n个聚类集合包括的训练数据进行采样压缩处理,得到
采样训练数据集;并利用采样训练数据集对预训练的数据处理模型进行训练得到目标数据处理模型。通过对n个聚类集合包括的训练数据进行采样压缩处理,得到的采样数据集包括原始训练数据集中的训练数据以及包括增量训练数据集中的训练数据,解决了训练数据带来的信息冗余问题,且无需将所有的增量训练数据和原始训练数据都输入预训练的数据处理模型中,减少了预训练的数据处理模型再次训练时所需的训练数据数量。采样得到的采样训练数据集中可以包括原始训练数据集中的训练数据和增量训练数据集中的训练数据,实现了原始训练数据和增量训练数据协同训练预训练的数据处理模型,提高了再次训练后模型的准确性。
[0131]
本技术实施例还提供了一种计算机存储介质(memory),所述计算机存储介质是计算机设备中的记忆设备,用于存放程序和数据。可以理解的是,此处的计算机存储介质既可以包括计算机设备的内置存储介质,当然也可以包括计算机设备所支持的扩展存储介质。计算机存储介质提供存储空间,该存储空间存储了计算机设备的操作系统。并且,在该存储空间中还存放了适于被处理器601加载并执行的一条或多条的计算机程序。需要说明的是,此处的计算机存储介质可以是高速ram存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器;可选的还可以是至少一个位于远离前述处理器的计算机存储介质。
[0132]
在一个实施例中,所述计算机存储介质可由处理器601加载并执行计算机存储介质中存放的一条或多条计算机程序,以实现上述图1和图3所示的图像处理模型训练方法的相应步骤。具体实现中,计算机存储介质中的一条或多条计算机程序由处理器601加载并执行如下步骤:获取原始训练数据集和增量训练数据集;
[0133]
对所述原始训练数据集包括的多个训练数据和所述增量训练数据集包括的多个训练数据进行聚类处理,得到n个聚类集合;每个聚类集合中包括一个或多个训练数据,所述每个聚类集合包括的一个或多个训练数据均属于同一数据类别;对所述n个聚类集合包括的训练数据进行采样压缩处理,得到采样训练数据集;利用所述采样训练数据集对预训练的数据处理模型进行训练得到目标数据处理模型;所述预训练的数据处理模型是基于所述原始训练数据集训练得到的。
[0134]
在一个实施例中,在对所述原始训练数据集包括的多个训练数据和所述增量训练数据集包括的多个训练数据进行聚类处理,得到n个聚类集合时,所述计算机存储介质中的一条或多条计算机程序由处理器601加载并具体执行如下步骤:
[0135]
调用聚类网络对所述原始训练数据集包括的多个训练数据和所述增量训练数据集包括的多个训练数据进行特征提取,得到每个训练数据对应的特征向量;
[0136]
基于所述每个训练数据对应的特征向量对所述每个训练数据进行聚类处理,得到n个聚类集合。
[0137]
在一个实施例中,所述聚类网络是基于样本数据集训练得到的,所述样本数据集包括多个样本数据以及每个样本数据的数据类别标签,所述计算机存储介质中的一条或多条计算机程序由处理器601加载并执行如下步骤:
[0138]
调用聚类网络对所述每个样本数据进行特征提取,得到所述每个样本数据的特征向量;
[0139]
对每两个样本数据的特征向量进行相似度计算,得到所述每两个样本数据之间的
相似性度量特征;
[0140]
根据所述每两个样本数据之间的相似性度量特征以及每个样本数据的数据类别标签确定对比损失函数的值,并按照减小所述对比损失函数的值的方向优化所述聚类网络的网络参数。
[0141]
在一个实施例中,在根据所述每两个样本数据之间的相似性度量特征以及每个样本数据的数据类别标签确定对比损失函数的值时,所述计算机存储介质中的一条或多条计算机程序由处理器601加载并具体执行如下步骤:
[0142]
根据所述每两个样本数据之间的相似性度量特征以及每个样本数据的数据类别标签,得到所述每两个样本数据之间的对比损失值;
[0143]
对得到的对比损失值进行预设运算处理,得到对比损失函数的值。
[0144]
在一个实施例中,所述样本数据集包括第一样本数据和第二样本数据,在根据所述每两个样本数据之间的相似性度量特征以及每个样本数据的数据类别标签,得到所述每两个样本数据之间的对比损失值时,所述计算机存储介质中的一条或多条计算机程序由处理器601加载并具体执行如下步骤:
[0145]
若所述第一样本数据的数据类别标签与所述第二样本数据的数据类别标签相同,则获取所述第一样本数据与所述第二样本数据之间的相似性度量特征与第一参数之间的第一差值;并对所述第一差值进行线性运算,得到所述第一样本数据和所述第二样本数据之间的对比损失值;
[0146]
若所述第一样本数据的数据类别标签与所述第二样本数据的数据类别标签不相同,则获取所述第一样本数据与所述第二样本数据之间的相似性度量特征与第二参数之间的第二差值;并对所述第二差值进行线性运算,得到所述第一样本数据和所述第二样本数据之间的对比损失值。
[0147]
在一个实施例中,在对所述n个聚类集合包括的训练数据进行采样压缩处理,得到采样训练数据集时,所述计算机存储介质中的一条或多条计算机程序由处理器601加载并具体执行如下步骤:
[0148]
基于采样参数和所述n个聚类集合中每个聚类集合包括的训练数据的数量确定所述每个聚类集合中需采样的训练数据的目标数量;
[0149]
按照所述每个聚类集合中需采样的训练数据的目标数量分别对所述每个聚类集合进行压缩采样处理,从所述每个聚类集合中获取采样训练数据;
[0150]
将从所述每个聚类集合中获取的采样训练数据添加到采样训练数据集。
[0151]
在一个实施例中,所述n个聚类集合中包括目标聚类集合,所述目标聚类集合是所述n个聚类集合中任意一个,在按照所述每个聚类集合中需采样的训练数据的目标数量分别对所述每个聚类集合包括的训练数据进行压缩采样处理,从所述每个聚类集合中获取采样训练数据时,所述计算机存储介质中的一条或多条计算机程序由处理器601加载并具体执行如下步骤:
[0152]
按照划分规则将所述目标聚类集合划分为多个聚类子集合;
[0153]
计算所述多个聚类子集合中的训练数据的数量比值;
[0154]
基于所述数量比值和所述目标聚类集合中需采样的训练数据的目标数量对所述每个聚类子集合进行压缩采样处理,从所述每个聚类子集合中获取采样训练数据;
[0155]
将所述每个聚类子集合中获取到的采样训练数据确定为从所述目标聚类集合中获取到的采样训练数据。
[0156]
在一个实施例中,所述采样训练数据集包括第一类采样训练数据子集和第二类采样训练数据子集,第一类采样训练数据子集中的训练数据来自所述增量训练数据集,第二类采样训练数据子集中的训练数据来自所述原始训练数据集;在利用所述采样训练数据集对预训练的数据处理模型进行训练得到目标数据处理模型时,所述计算机存储介质中的一条或多条计算机程序由处理器601加载并具体执行如下步骤:
[0157]
采用所述采样训练数据集和所述采样训练数据集中的第二类采样训练数据子集对预训练的数据处理模型进行交替训练,得到目标数据处理模型。
[0158]
在一个实施例中,所述预训练的数据处理模型中包括纠正偏置模块和其他数据处理模块,在采用所述采样训练数据集和所述采样训练数据集中的第二类采样训练数据子集对预训练的数据处理模型进行交替训练,得到目标数据处理模型时,所述计算机存储介质中的一条或多条计算机程序由处理器601加载并具体执行如下步骤:
[0159]
保持所述其他数据处理模块的模型参数不变,采用所述采样训练数据集对所述纠正偏置模块进行训练;
[0160]
当对所述纠正偏置模块训练完成时,保持所述纠正偏置模块中的模型参数不变,采用所述采样训练数据集中的第二类采样训练数据子集对所述其他数据处理模块进行训练,得到目标数据处理模型。
[0161]
在本技术实施例中,计算机设备在获取原始训练数据集和增量训练数据集之后,可以对原始训练数据集包括的多个训练数据和增量训练数据集包括的多个训练数据进行聚类处理,得到n个聚类集合;然后对n个聚类集合包括的训练数据进行采样压缩处理,得到采样训练数据集;并利用采样训练数据集对预训练的数据处理模型进行训练得到目标数据处理模型。通过对n个聚类集合包括的训练数据进行采样压缩处理,得到的采样数据集包括原始训练数据集中的训练数据以及包括增量训练数据集中的训练数据,解决了训练数据带来的信息冗余问题,且无需将所有的增量训练数据和原始训练数据都输入预训练的数据处理模型中,减少了预训练的数据处理模型再次训练时所需的训练数据数量。采样得到的采样训练数据集中可以包括原始训练数据集中的训练数据和增量训练数据集中的训练数据,实现了原始训练数据和增量训练数据协同训练预训练的数据处理模型,提高了再次训练后模型的准确性。
[0162]
本技术实施例还提供一种计算机程序产品,计算机程序产品包括计算机程序,该计算机程序存储在计算机可读存储介质中,该计算机程序被计算机设备的处理器执行时,执行:获取原始训练数据集和增量训练数据集;对所述原始训练数据集包括的多个训练数据和所述增量训练数据集包括的多个训练数据进行聚类处理,得到n个聚类集合;每个聚类集合中包括一个或多个训练数据,所述每个聚类集合包括的一个或多个训练数据均属于同一数据类别;对所述n个聚类集合包括的训练数据进行采样压缩处理,得到采样训练数据集;利用所述采样训练数据集对预训练的数据处理模型进行训练得到目标数据处理模型;所述预训练的数据处理模型是基于所述原始训练数据集训练得到的。
[0163]
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质
中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(read-only memory,rom)或随机存储记忆体(random access memory,ram)等。
[0164]
以上所揭露的仅为本技术一种较佳实施例而已,当然不能以此来限定本技术之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本技术权利要求所作的等同变化,仍属于发明所涵盖的范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1