机器学习模型训练方法和装置、表情图像分类方法和装置与流程

文档序号:14991546发布日期:2018-07-20 22:19阅读:237来源:国知局

本发明涉及机器学习领域,特别是涉及一种机器学习模型训练方法和装置、表情图像分类方法和装置。



背景技术:

目前,随着终端存储技术和网络技术的发展,基于图像的交互变得越来越容易,越来越多的用户选择使用图像进行交互,使得用于交互的图像数量日益增多。将图像进行合适的分类,对于用户个性化推荐、用户画像构建等都有非常重要的作用。目前,可使用训练好的机器学习模型来进行图像分类。传统的机器学习模型训练方式,通常是使用大量的训练数据来对机器学习模型进行训练,使模型习得分类规则,以提高模型的分类准确率。

然而基于传统的模型训练方式,由于需要使用大量的训练数据,在获取训练数据和使用训练数据对模型进行训练时都会耗费大量的时间,导致机器学习模型训练效率比较低。



技术实现要素:

基于此,有必要针对传统的机器学习模型训练效率低的问题,提供一种机器学习模型训练方法和装置、表情图像分类方法和装置。

一种机器学习模型训练方法,所述方法包括:

获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型;

确定专用图像的样本和相对应的分类标签;

将所述专用图像的样本输入所述机器学习模型,得到中间分类结果;

按照所述中间分类结果与所述分类标签的差异,调整所述机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练。

一种机器学习模型训练装置,所述装置包括:

获取模块,用于获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型;

确定模块,用于确定专用图像的样本和相对应的分类标签;

分类模块,用于将所述专用图像的样本输入所述机器学习模型,得到中间分类结果;

训练模块,用于按照所述中间分类结果与所述分类标签的差异,调整所述机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练。

一种表情图像分类方法,基于机器学习模型训练方法,所述方法包括:

将待分类的表情图像输入训练好的机器学习模型,得到输入的表情图像分类到每个分类标签所对应的概率;所述训练好的机器学习模型,是将表情图像的样本作为专用图像的样本、并采用所述机器学习模型训练方法训练得到的;

确定得到的所述概率中的最大概率;

将所述待分类的表情图像分类到所述最大概率对应的分类标签。

一种表情图像分类装置,基于机器学习模型训练装置,所述表情图像分类装置包括:

机器学习模型,用于输入待分类的表情图像,输出待分类的表情图像分类到每个分类标签所对应的概率;所述机器学习模型,是将表情图像的样本作为专用图像的样本、并采用所述机器学习模型训练装置训练得到的;

分类模块,用于确定得到的所述概率中的最大概率;将所述待分类的表情图像分类到所述最大概率对应的分类标签。

上述机器学习模型训练方法和装置,通过获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型,使用专用图像的样本和相对应的分类标签对该机器学习模型进行训练。将根据通用图像训练集训练的知识迁移到根据专用图像的样本训练的过程中,通过调整模型参数,就可以尽快地训练出对专用图像的分类准确率较高机器学习模型,提高了训练效率。

上述表情图像分类方法和装置,通过将表情图像输入到已训练好的机器学习模型中,确定所输入的表情图像分类到每个分类标签所对应的概率中的最大概率,将表情图像分类到最大概率所对应的分类标签,这样通过机器学习模型对表情图像进行分类,并选择最大概率所对应的分类标签作为分类结果,提高了表情图像分类的分类效率和准确率。

附图说明

图1为一个实施例中机器学习模型训练方法的应用环境图;

图2为一个实施例中机器学习模型训练方法的流程示意图;

图3为一个实施例中vgg模型结构示意图;

图4为另一个实施例中机器学习模型训练方法的流程示意图;

图5为一个实施例中模型再训练的步骤的流程示意图;

图6为一个实施例中对待分类的专用图像进行分类的步骤的流程示意图;

图7为一个具体实施例中机器学习模型训练方法的流程示意图;

图8为一个实施例中机器学习模型训练装置的结构框图;

图9为又一个实施例中机器学习模型训练装置的结构框图;

图10为一个实施例中表情图像分类方法的流程示意图;

图11为一个实施例中表情图像分类装置的结构框图。

具体实施方式

为了使本发明的技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。

图1为一个实施例中机器学习模型训练方法和/或表情图像分类方法的应用环境图。如图1所示,该机器学习模型训练方法和/或表情图像分类方法应用于一种计算机设备。该计算机设备可以是终端或者服务器。终端可以是台式设备或者移动终端。服务器可以是独立的物理服务器、物理服务器集群或者虚拟服务器。其中,该计算机设备包括通过系统总线连接的处理器、非易失性存储介质、内存储器和网络接口。其中,处理器包括中央处理器和图形处理器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机可读指令,该计算机可读指令被处理器执行时,可使得处理器实现机器学习模型训练方法和/或表情图像分类方法。该中央处理器用于提供计算和控制能力,支撑整个计算机设备的运行,该图形处理器用于执行图形处理指令。该内存储器中也可储存有计算机可读指令,该计算机可读指令被所述处理器执行时,可使得所述处理器执行机器学习模型训练方法和/或表情图像分类方法。本领域技术人员可以理解,图1中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。

图2为一个实施例中机器学习模型训练方法的流程示意图。本实施例主要以该方法应用于上述图1中的计算机设备来举例说明。参照图2,该机器学习模型训练方法具体包括如下步骤:

s202,获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型。

其中,机器学习模型是经过训练后具有分类能力的机器学习算法模型。机器学习英文全称为machinelearning,简称ml。机器学习模型可通过样本学习具备分类能力。图像训练集是用于训练机器学习模型的图像的集合。模型参数是机器学习模型的模型结构中的各个参数,能反应模型输出和输入的对应关系。

通用图像训练集是训练具有通用的分类能力的机器学习模型的图像训练集。根据通用图像训练集训练所得的机器学习模型可以称为通用的机器学习模型。通用的机器学习模型对于一般的图像都具有一定的分类能力。

在一个实施例中,计算机设备可获取根据通用图像训练集训练好的机器学习模型的模型结构和模型参数,并将该模型参数导入该模型结构,得到带有模型参数的机器学习模型。机器学习模型所带的模型参数,作为本实施例中训练机器学习模型的初始参数参与到训练中。

在一个实施例中,通用图像训练集可以是由imagenet(图像识别数据库)中的图像组成的通用图像训练集,相应的机器学习模型可以是vgg(visualgeometrygroup视觉集合组)网络模型、googlenet(谷歌网路)网络模型或resnet(能效评估系统)网络模型等。

s204,确定专用图像的样本和相对应的分类标签。

其中,专用图像是具有专门用途的图像,相对于通用图像训练集中的图像是专用的。根据专用图像训练得到的机器学习模型可以称为专用的机器学习模型。其中,专用图像可以细分为不同的类别。通用的机器学习模型所能够分类的类别数,可以多于专用的机器学习模型所能够分类的类别数。专用图像的样本是训练专用的机器学习模型的专用图像。分类标签是标注专用图像的样本所属类别的数据。在一个实施例中,专用图像可以是表情图像、应用图标、广告图像或风格艺术图像等。

在一个实施例中,计算机设备可以从专用图像库中选择多个专用图像作为专用图像的样本,将专用图像的样本进行分类,并为每一类的专用图像的样本分配分类标签。

在另一个实施例中,计算机设备可以先确定分类标签和相应的标签定义,从而按照分类标签相应的定义,从专用图像库中选择符合该分类标签的定义的部分专用图像,作为该分类标签相对应的专用图像的样本。

s206,将专用图像的样本输入机器学习模型,得到中间分类结果。

其中,中间分类结果是在训练过程中,向机器学习模型输入专用图像的样本后,由该机器学习模型所输出的分类结果。

在一个实施例中,计算机设备可将专用图像的样本输入到机器学习模型后,由该机器学习模型判定专用图像的样本所属的类别标签,从而将该类别标签作为中间分类结果。

s208,按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练。

其中,训练停止条件是结束模型训练的条件。训练停止条件可以是达到预设的迭代次数,或者是调整模型参数后的机器学习模型的分类性能指标达到预设指标。调整机器学习模型的模型参数,是对机器学习模型的模型参数进行调整。

具体地,计算机设备可比较中间分类结果与分类标签的差异,从而朝减少差异的方向,以比根据通用图像训练集训练机器学习模型的学习率小的学习率,调整机器学习模型的模型参数。如果调整模型参数后,不满足训练停止条件,则返回步骤s206继续训练,直到满足训练停止条件时结束训练。

在一个实施例中,调整机器学习模型的模型参数可以是局部调整机器学习模型的模型参数。具体可保持部分模型参数不变,对另一部分模型参数做调整。

在一个实施例中,中间分类结果与分类标签的差异可以用代价函数来衡量。代价函数是模型参数的函数,能够衡量机器学习模型的中间分类结果与分类标签之间的差异的函数。计算机设备可在代价函数的值小于预先设定的值时结束训练,得到用于对专用图像进行分类的机器学习模型。可以选择交叉熵或均方误差等函数作为代价函数。

上述机器学习模型训练方法,通过获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型,使用专用图像的样本和相对应的分类标签对该机器学习模型进行训练。将根据通用图像训练集训练的知识迁移到根据专用图像的样本训练的过程中,通过调整模型参数,就可以尽快地训练出对专用图像的分类准确率较高机器学习模型,提高了训练效率。

在一个实施例中,步骤s204包括:获取与分类标签相应的代表专用图像;按照代表专用图像与专用图像库中专用图像的相似度,确定专用图像库中与代表专用图像相似的专用图像;从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像,作为与分类标签相对应的专用图像的样本。

其中,专用图像库是已知的专用图像的集合库,包含了所有的专用图像。代表专用图像是分类标签相应类的专用图像中能代表此类专用图像的专用图像。满足差异性条件,是指代表专用图像和相似的专用图像所构成的专用图像集合中,各专用图像彼此间具有通过数学条件约束的差异性。

在一个实施例中,计算机设备可按照分类标签的含义,从专用图像库选取能表示分类标签的含义的专用图像作为代表专用图像。在一个实施例中,可人工从专用图像库中选取与分类标签相应的代表专用图像。

在一个实施例中,计算机设备可获取代表专用图像与专用图像库中各专用图像的相似度,从而按照相似度大小将专用图像库中的专用图像排序,从最大相似度的专用图像开始选取连续的指定数量的专用图像,再从选取的专用图像和代表专用图像中挑选满足差异性条件的专用图像。

在一个实施例中,计算机设备从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像,具体可以对代表专用图像和相似的专用图像构成的集合进行两两专用图像之间的差异性比对,从而确定满足差异性条件的专用图像。

在一个实施例中,计算机设备从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像,具体可以对代表专用图像和相似的专用图像构成的集合进行两两专用图像之间的相似度比对,剔除近似的两个专用图像中的其中一个,得到满足差异性条件的专用图像。

其中,近似的两个专用图像,可以是相似度超过预设值的两个专用图像,也可以是两两对比的相似度中从大到小排序后靠前的预设数量的相似度所对应的两个专用图像。

上述实施例中,通过选择与分类标签相应的代表专用图像相似、且具有一定差异的专用图像作为专用图像的样本,和相应的分类标签一起组成训练数据,每个样本可以尽可能为机器学习模型的训练提供有用信息,提高了机器学习模型训练效率,且进一步减少了模型训练过程中的过拟合风险。

在一个实施例中,步骤s204还包括:获取代表专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;获取专用图像库中专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;根据代表专用图像的图像特征和专用图像库中专用图像的图像特征,计算代表专用图像与专用图像库中专用图像的相似度。

其中,机器学习模型的中间层是机器学习模型的输入层和输出层之间的层。专用图像的图像特征,是表示相应专用图像区别于其它图像的特性。相似度可采用余弦相似度或者图像间各自感知哈希值的汉明距离。

在一个实施例中,机器学习模型为卷积神经网络模型。其中,卷积神经网络(convolutionalneuralnetwork,简称cnn)是一种人工神经网络。卷积神经网络包括卷积层(convolutionallayer)和子采样层(poolinglayer)。

在卷积神经网络的卷积层中,存在多个特征图(featuremap),每个特征图包括多个神经元,同一个特征图的所有神经元共用一个卷积核。卷积核就是相应神经元的权值,卷积核代表一个特征。卷积核一般以随机小数矩阵的形式初始化,在网络的训练过程中将学习得到合理的卷积核。卷积层可以减少神经网络中各层之间的连接,同时又降低了过拟合的风险。

子采样也叫做池化(pooling),通常有均值子采样(meanpooling)和最大值子采样(maxpooling)两种形式。子采样可以看作一种特殊的卷积过程。卷积和子采样大大简化了神经网络的复杂度,减少了神经网络的参数。。

卷积神经网络模型是使用了卷积神经网络算法训练而成的机器学习模型。本实施例所采用卷积神经网络可直接构建,也可将已有的卷积神经网络进行改造得到。

在一个实施例中,机器学习模型为卷积神经网络模型,则计算机设备在将代表专用图像输入到卷积神经网络模型后,获取该卷积神经网络模型中输入层和输出层之间的某卷积层或者全连接层所输出的数据,作为代表专用图像的图像特征。

在一个实施例中,机器学习模型为卷积神经网络模型,则计算机设备在将专用图像库中的专用图像输入到机器学习模型后,获取该卷积神经网络模型中输入层和输出层之间的某卷积层或者全连接层所输出的数据,作为输入的专用图像的图像特征。

举例说明,如图3所示,计算机设备可采用8层vgg模型作为需要训练的机器学习模型,其中c1-c5层为卷积层,fc6-fc8层为全连接层。计算机设备将代表专用图像从c1层输入,提取该vgg模型中fc7全连接层输出的图像特征。根据代表专用图像的图像特征和专用图像库中专用图像的图像特征,计算代表专用图像与专用图像库中专用图像的相似度。

上述实施例中,机器学习模型的中间层所输出的图像特征,可以更好地反映出相应专用图像的特性,从而可以选择更优的专用图像的样本,可进一步提高机器学习模型的训练效率,并保证训练出的机器学习模型的分类准确性。

如图4所示,在一个具体实施例中,机器学习模型训练方法包括以下步骤:

s402,获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型。

s404,确定专用图像的样本和相对应的分类标签。

s406,配置机器学习模型分类的类别数与分类标签的种类数相匹配。

具体地,计算机设备可将机器学习模型的模型参数中分类的类别数配置成分类标签的种类数,使机器学习模型的输出数量和分类标签的种类数相对应。

s408,将专用图像的样本输入机器学习模型,得到专用图像的样本分类到每个分类标签所对应的概率。

具体地,计算机设备可将专用图像的样本输入机器学习模型,机器学习模型对专用图像的样本进行处理后可得到与分类标签对应数目的输出,每个输出分别表示此专用图像的样本属于每个分类标签所对应的概率。

s410,确定得到的概率中的最大概率。

在一个实施例中,计算机设备可通过将专用图像的样本分类到每个分类标签所对应的概率进行逐一比较,确定上述概率中的最大概率。

s412,将最大概率对应的分类标签作为专用图像的样本的中间分类结果。

具体地,计算机设备可在确定最大概率后,获取该最大概率对应的分类标签,从而将该分类标签作为专用图像的样本的中间分类结果。

s414,按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练。

在一个实施例中,计算机设备可将专用图像的样本相对应的分类标签,表示为该分类标签相对于分类标签集的分布向量,将最大概率对应的分类标签也表示为该分类标签相对于分类标签集的分布向量,从而计算分布向量之间的向量相似度,通过向量相似度衡量中间分类结果与分类标签的差异。

其中,分布向量中元素数量与分类标签的种类数相等,且每个元素对应于一种分类标签。将分类标签表示为分布向量时,将分布向量中与该分类标签对应的元素置为第一值,将分布向量中除该分类标签所对应元素之外的元素置为第二值。第一值比如可以是1,第二值比如可以是0。

上述实施例中,通过配置机器学习模型分类的类别数与分类标签的种类数相匹配,使得机器学习模型可获得与分类标签的种类相对应的输出,进而得到专用图像的样本属于每个分类标签的概率。选择最大概率对应的输出作为专用图像的样本的中间分类结果,通过调整模型参数来不断减小中间分类结果与专用图像的样本相对应的分类标签的差异,使得中间分类结果不断接近对应的分类标签,进而提高了模型的分类准确率。

在一个实施例中,机器学习模型为卷积神经网络模型。步骤s208包括:保持机器学习模型中按层顺序靠前的层的模型参数不变,按照中间分类结果与分类标签的差异,调整机器学习模型中按层顺序靠后的层的模型参数,并继续训练,直至满足训练停止条件时结束训练。

具体地,在机器学习模型训练过程中,由于机器学习模型中按层顺序靠前的层提取的是专用图像的样本中的低阶特征,而通用图像训练集中的通用图像和专用图像库中专用图像的低阶特征差异不大,所以可以将通用图像训练集训练所得的机器学习模型中的靠前的层的模型参数在训练过程中保持不变。同时在模型训练过程中调整机器学习模型中按层顺序靠后的层的模型参数,直至满足训练停止条件时结束训练。

例如,对于机器学习模型是vgg模型的模型训练方法,可在模型训练过程中保持vgg模型中的前三层卷积层的模型参数不变,具体可保持前三层卷积层中卷积核内的数值不变,以比根据通用图像训练集训练机器学习模型的学习率小的学习率调整后面的层的模型参数,具体可根据该学习率调整前三层之后的卷积层中卷积核内的数值和全连接层中的全连接层矩阵系数。

上述实施例中,在对机器学习模型的训练过程中,保持机器学习模型中按层顺序靠前的层的模型参数不变,调整机器学习模型中按层顺序靠后的层的模型参数,可提高模型训练的效率。

在一个实施例中,步骤s208之后,该机器学习模型训练方法还包括模型再训练的步骤,模型再训练的步骤具体包括:

s502,获取机器学习模型对待分类的专用图像分类失败时,所确定的未分类的专用图像集。

其中,分类失败是对输入到机器学习模型中的待分类的专用图像的输出不满足此专用图像属于对应分类标签的条件时,无法将专用图像分类到对应的分类标签。

具体地,当机器学习模型对待分类的专用图像分类失败时,可将所有分类失败的专用图像集合,构成未分类的专用图像集。

s504,对专用图像集进行聚类,得到专用图像子集。

其中,聚类是以专用图像的相似性为基础,将专用图像集分成由相似的专用图像组成的一个或多个专用图像子集。聚类算法可以是划分法(partitioningmethods)、层次法(hierarchicalmethods)、密度算法(density-basedmethods)或者图论聚类法等聚类分析算法。

在一个实施例中,计算机设备对专用图像集进行聚类,如果聚类成功,则将相似的专用图像组成专用图像子集。每个专用图像子集中的专用图像具有相似性,与其他专用图像子集具有差异性。

在另一个实施例中,计算机设备对专用图像集进行聚类,未能提取到具有相似性的专用图像,则聚类不成功,聚类不成功的专用图像可仍旧保留到未分类的专用图像集中。

s506,确定专用图像子集相对应的分类标签。

具体地,计算机设备可以根据专用图像子集中专用图像的共同特征,生成专用图像子集相对应的分类标签。分类标签可以很好的概括专用图像子集中专用图像的共性特征。

s508,根据专用图像子集和相对应的分类标签,以及专用图像的样本和相对应的分类标签,对机器学习模型进行再训练。

在一个实施例中,计算机设备可将将专用图像子集和相对应的分类标签,以及专用图像的样本和相对应的分类标签进行合并,获得新的专用图像的样本和相应的分类标签。计算机设备使用新的专用图像的样本和相应的分类标签,执行上述步骤s202至步骤s208,以对机器学习模型进行再训练。

上述实施例中,通过使用更新后的训练数据对由专用图像的样本和相对应的分类标签训练好的机器学习模型进行再训练,可以进一步提高机器学习模型的分类准确率。

在一个实施例中,步骤s208之后,该机器学习模型训练方法还包括对待分类的专用图像进行分类的步骤,对待分类的专用图像进行分类的步骤具体包括:

s602,将待分类的专用图像输入机器学习模型,得到输入的专用图像分类到每个分类标签所对应的概率。

具体地,计算机设备将待分类的专用图像输入机器学习模型,机器学习模型对待分类的专用图像进行处理后可得到与分类标签对应数目的输出,对应的输出即表示此专用图像属于对应的分类标签的概率。

s604,确定得到的概率中的最大概率。

在一个实施例中,计算机设备可通过将待分类的专用图像分类到每个分类标签所对应的概率进行逐一比较,确定上述概率中的最大概率。

s606,当最大概率低于阈值时分类失败,并将输入的专用图像添加至未分类的专用图像集。

在一个实施例中,计算机设备可通过比较确定得到的概率中的最大概率与分类阈值的大小来判断分类是否成功。当最大概率大于分类阈值时,则将输入的专用图像分类到最大概率所对应的分类标签,即分类成功。当最大概率小于分类阈值时,即分类失败,则将输入的专用图像添加至未分类的专用图像集。

上述实施例中,当最大概率低于阈值时判定分类失败,从而将输入的专用图像添加至未分类的专用图像集,可有效地分离出不属于已知类别的专用图像,有助于高效地发现新的类别标签,进一步提高机器学习模型的分类能力。

在一个实施例中,步骤s504包括:将专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,获取机器学习模型的中间层所输出的相应专用图像的图像特征;根据专用图像集中专用图像的图像特征进行聚类,得到专用图像子集。

具体地,计算机设备可将专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,提取由机器学习模型的中间层所输出的图像特征。根据图像特征进行聚类,判断同个聚类中心内的专用图像是否符合同个分类标签的定义,若是,则计算同个聚类中心内的专用图像的图像特征到聚类中心的欧氏距离之和是否小于预设值,若是,则聚类成功;否则,则聚类不成功。同个聚类中心内的聚类成功的专用图像构成专用图像子集。

上述实施例中,结束训练后所得到的机器学习模型的中间层所输出的图像特征,可更好地挖掘出相应专用图像的特性,用于聚类时,可高效并准确地将同类的专用图像聚类到相同的专用图像子集。

在一个实施例中,专用图像为表情图像,分类标签为表情分类标签。其中,表情图像是用卡通人物、卡通动物或真人图像等来模拟人类表情的图像,可通过在终端上使用来帮助实现人们日常沟通和交流。具体地,专用图像可以为表情图像,例如现在广泛应用于即时通讯应用中的模拟真人表情的表情图像、卡通动物的表情图像等。对应地,分类标签可以是和表情图像相对应的表情分类标签。

如图7所示,在一个具体的实施例中,机器学习模型训练方法包括以下步骤:

s702,获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型。

s704,获取与分类标签相应的代表专用图像。

s706,获取代表专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征。

s708,获取专用图像库中专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征。

s710,根据代表专用图像的图像特征和专用图像库中专用图像的图像特征,计算代表专用图像与专用图像库中专用图像的相似度。

s712,按照代表专用图像与专用图像库中专用图像的相似度,确定专用图像库中与代表专用图像相似的专用图像。

s714,从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像,作为与分类标签相对应的专用图像的样本。

s716,配置机器学习模型分类的类别数与分类标签的种类数相匹配。

s718,将专用图像的样本输入机器学习模型,得到专用图像的样本分类到每个分类标签所对应的概率。

s720,确定得到的概率中的最大概率。

s722,将最大概率对应的分类标签作为专用图像的样本的中间分类结果。

s724,保持机器学习模型中按层顺序靠前的层的模型参数不变,按照中间分类结果与分类标签的差异,调整机器学习模型中按层顺序靠后的层的模型参数,并继续训练,直至满足训练停止条件时结束训练。

s726,将待分类的专用图像输入机器学习模型,得到输入的专用图像分类到每个分类标签所对应的概率。

s728,确定得到的概率中的最大概率。

s730,当最大概率低于阈值时分类失败,并将输入的专用图像添加至未分类的专用图像集。

s732,获取机器学习模型对待分类的专用图像分类失败时,所确定的未分类的专用图像集。

s734,将专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,获取机器学习模型的中间层所输出的相应专用图像的图像特征。

s736,根据专用图像集中专用图像的图像特征进行聚类,得到专用图像子集。

s738,确定专用图像子集相对应的分类标签。

s740,根据专用图像子集和相对应的分类标签,以及专用图像的样本和相对应的分类标签,对机器学习模型进行再训练。

上述机器学习模型训练方法,通过获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型,使用专用图像的样本和相对应的分类标签对该机器学习模型进行训练。将根据通用图像训练集训练的知识迁移到根据专用图像的样本训练的过程中,通过调整模型参数,就可以尽快地训练出对专用图像的分类准确率较高机器学习模型,提高了训练效率。而且,基于根据通用图像训练集训练得到的包括有模型参数的机器学习模型进行训练,可大大减少由少量训练数据训练模型时所产生的过拟合风险。

如图8所示,在一个实施例中,提供了一种机器学习模型训练装置800,包括:获取模块801、确定模块802、分类模块803、训练模块804。

获取模块801,用于获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型。

确定模块802,用于确定专用图像的样本和相对应的分类标签。

分类模块803,用于将专用图像的样本输入机器学习模型,得到中间分类结果。

训练模块804,用于按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练。

上述机器学习模型训练装置800,通过获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型,使用专用图像的样本和相对应的分类标签对该机器学习模型进行训练。将根据通用图像训练集训练的知识迁移到根据专用图像的样本训练的过程中,通过调整模型参数,就可以尽快地训练出对专用图像的分类准确率较高机器学习模型,提高了训练效率。

在一个实施例中,确定模块802还用于获取与分类标签相应的代表专用图像;按照代表专用图像与专用图像库中专用图像的相似度,确定专用图像库中与代表专用图像相似的专用图像;从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像,作为与分类标签相对应的专用图像的样本。

上述实施例中,通过选择与分类标签相应的代表专用图像相似、且具有一定差异的专用图像作为专用图像的样本,和相应的分类标签一起组成训练数据,每个样本可以尽可能为机器学习模型的训练提供有用信息,提高了机器学习模型训练效率,且进一步减少了模型训练过程中的过拟合风险。

在一个实施例中,确定模块802还用于获取代表专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;获取专用图像库中专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;根据代表专用图像的图像特征和专用图像库中专用图像的图像特征,计算代表专用图像与专用图像库中专用图像的相似度。

上述实施例中,机器学习模型的中间层所输出的图像特征,可以更好地反映出相应专用图像的特性,从而可以选择更优的专用图像的样本,可进一步提高机器学习模型的训练效率,并保证训练出的机器学习模型的分类准确性。

如图9所示,在一个实施例中,机器学习模型训练装置800还包括:配置模块805。

配置模块805,用于配置机器学习模型分类的类别数与分类标签的种类数相匹配。

分类模块803还用于将专用图像的样本输入机器学习模型,得到专用图像的样本分类到每个分类标签所对应的概率;确定得到的概率中的最大概率;将最大概率对应的分类标签作为专用图像的样本的中间分类结果。

上述实施例中,通过配置机器学习模型分类的类别数与分类标签的种类数相匹配,使得机器学习模型可获得与分类标签的种类相对应的输出,进而得到专用图像的样本属于每个分类标签的概率。选择最大概率对应的输出作为专用图像的样本的中间分类结果,通过调整模型参数来不断减小中间分类结果与专用图像的样本相对应的分类标签的差异,使得中间分类结果不断接近对应的分类标签,进而提高了模型的分类准确率。

在一个实施例中,训练模块804还用于保持机器学习模型中按层顺序靠前的层的模型参数不变,按照中间分类结果与分类标签的差异,调整机器学习模型中按层顺序靠后的层的模型参数,并继续训练,直至满足训练停止条件时结束训练。

上述实施例中,在对机器学习模型的训练过程中,保持机器学习模型中按层顺序靠前的层的模型参数不变,调整机器学习模型中按层顺序靠后的层的模型参数,可提高模型训练的效率。

在一个实施例中,训练模块804还用于获取机器学习模型对待分类的专用图像分类失败时,所确定的未分类的专用图像集;对专用图像集进行聚类,得到专用图像子集;确定专用图像子集相对应的分类标签;根据专用图像子集和相对应的分类标签,以及专用图像的样本和相对应的分类标签,对机器学习模型进行再训练。

上述实施例中,通过使用更新后的训练数据对由专用图像的样本和相对应的分类标签训练好的机器学习模型进行再训练,可以进一步提高机器学习模型的分类准确率。

在一个实施例中,训练模块804还用于将待分类的专用图像输入机器学习模型,得到输入的专用图像分类到每个分类标签所对应的概率;确定得到的概率中的最大概率;当最大概率低于阈值时分类失败,并将输入的专用图像添加至未分类的专用图像集。

上述实施例中,当最大概率低于阈值时判定分类失败,从而将输入的专用图像添加至未分类的专用图像集,可有效地分离出不属于已知类别的专用图像,有助于高效地发现新的类别标签,进一步提高机器学习模型的分类能力。

在一个实施例中,训练模块804还用于将专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,获取机器学习模型的中间层所输出的相应专用图像的图像特征;根据专用图像集中专用图像的图像特征进行聚类,得到专用图像子集。

上述实施例中,结束训练后所得到的机器学习模型的中间层所输出的图像特征,可更好地挖掘出相应专用图像的特性,用于聚类时,可高效并准确地将同类的专用图像聚类到相同的专用图像子集。

图10为一个实施例中表情图像分类方法的流程示意图。本实施例主要以该方法应用于上述图1中的计算机设备来举例说明。参照图10,该表情图像分类方法具体包括如下步骤:

s1002,将待分类的表情图像输入训练好的机器学习模型,得到输入的表情图像分类到每个分类标签所对应的概率;训练好的机器学习模型,是将表情图像的样本作为专用图像的样本、并采用机器学习模型训练方法训练得到的。

具体地,计算机设备将待分类的表情图像输入训练好的机器学习模型,训练好的机器学习模型对待分类的表情图像进行处理后可得到与分类标签对应数目的输出,对应的输出即表示此表情图像属于对应的分类标签的概率。其中,训练好的机器学习模型,是将表情图像的样本作为专用图像的样本、并采用机器学习模型训练方法训练得到的,

s1004,确定得到的概率中的最大概率。

在一个实施例中,计算机设备可通过将待分类的表情图像分类到每个分类标签所对应的概率进行逐一比较,确定上述概率中的最大概率。

s1006,将待分类的表情图像分类到最大概率对应的分类标签。

在一个实施例中,计算机设备将输入的表情图像分类到最大概率所对应的分类标签。

上述表情图像分类方法,通过将表情图像输入到已训练好的机器学习模型中,确定所输入的表情图像分类到每个分类标签所对应的概率中的最大概率,将表情图像分类到最大概率所对应的分类标签,这样通过机器学习模型对表情图像进行分类,并选择最大概率所对应的分类标签作为分类结果,提高了表情图像分类的分类效率和准确率。

如图11所示,在一个实施例中,提供了一种表情图像分类装置1100,包括:机器学习模型1101和分类模块1102。

机器学习模型1101,用于输入待分类的表情图像,输出待分类的表情图像分类到每个分类标签所对应的概率;机器学习模型,是将表情图像的样本作为专用图像的样本、并采用机器学习模型训练装置训练得到的。

分类模块1102,用于确定得到的概率中的最大概率;将待分类的表情图像分类到最大概率对应的分类标签。

上述表情图像分类装置,通过将表情图像输入到已训练好的机器学习模型中,确定所输入的表情图像分类到每个分类标签所对应的概率中的最大概率,将表情图像分类到最大概率所对应的分类标签,这样通过机器学习模型对表情图像进行分类,并选择最大概率所对应的分类标签作为分类结果,提高了表情图像分类的分类效率和准确率。

在一个实施例中,本申请提供的机器学习模型训练装置可以实现为一种计算机程序的形式,所述计算机程序可在如图1所示的计算机设备上运行,所述计算机设备的非易失性存储介质可存储组成该机器学习模型训练装置的各个程序模块,比如,图8所示的获取模块801。各个程序模块中包括计算机可读指令,所述计算机可读指令用于使所述计算机设备执行本说明书中描述的本申请各个实施例的应用程序处理方法中的步骤,例如,所述计算机设备可以通过如图8所示的机器学习模型训练装置800,通过获取模块801获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型,通过分类装置802输入由确定装置802确定的专用图像的样本,得到中间分类结果,再通过训练装置804根据模型训练结果来调整上述机器学习模型的模型参数,以提高机器学习模型的分类准确率。

在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中储存有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行以下步骤:获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型;确定专用图像的样本和相对应的分类标签;将专用图像的样本输入机器学习模型,得到中间分类结果;按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练。

在一个实施例中,计算机可读指令使得处理器在执行确定专用图像的样本和相对应的分类标签时具体执行以下步骤:获取与分类标签相应的代表专用图像;按照代表专用图像与专用图像库中专用图像的相似度,确定专用图像库中与代表专用图像相似的专用图像;从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像,作为与分类标签相对应的专用图像的样本。

在一个实施例中,计算机可读指令使得处理器在执行获取与分类标签相应的代表专用图像步骤之后还执行以下步骤:获取代表专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;获取专用图像库中专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;根据代表专用图像的图像特征和专用图像库中专用图像的图像特征,计算代表专用图像与专用图像库中专用图像的相似度。

在一个实施例中,计算机可读指令使得处理器在执行将专用图像的样本输入机器学习模型,得到中间分类结果步骤之前,还执行以下步骤:配置机器学习模型分类的类别数与分类标签的种类数相匹配;执行将专用图像的样本输入机器学习模型,得到中间分类结果时具体执行以下步骤:将专用图像的样本输入机器学习模型,得到专用图像的样本分类到每个分类标签所对应的概率;确定得到的概率中的最大概率;将最大概率对应的分类标签作为专用图像的样本的中间分类结果。

在一个实施例中,计算机可读指令使得处理器在执行按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练时具体执行以下步骤:保持机器学习模型中按层顺序靠前的层的模型参数不变,按照中间分类结果与分类标签的差异,调整机器学习模型中按层顺序靠后的层的模型参数,并继续训练,直至满足训练停止条件时结束训练。

在一个实施例中,计算机可读指令使得处理器执行以下步骤:获取机器学习模型对待分类的专用图像分类失败时,所确定的未分类的专用图像集;对专用图像集进行聚类,得到专用图像子集;确定专用图像子集相对应的分类标签;根据专用图像子集和相对应的分类标签,以及专用图像的样本和相对应的分类标签,对机器学习模型进行再训练。

在一个实施例中,计算机可读指令使得处理器执行以下步骤:将待分类的专用图像输入机器学习模型,得到输入的专用图像分类到每个分类标签所对应的概率;确定得到的概率中的最大概率;当最大概率低于阈值时分类失败,并将输入的专用图像添加至未分类的专用图像集。

在一个实施例中,计算机可读指令使得处理器执行对专用图像集进行聚类,得到专用图像子集时具体执行以下步骤:将专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,获取机器学习模型的中间层所输出的相应专用图像的图像特征;根据专用图像集中专用图像的图像特征进行聚类,得到专用图像子集。

上述计算机设备,通过获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型,使用专用图像的样本和相对应的分类标签对该机器学习模型进行训练。将根据通用图像训练集训练的知识迁移到根据专用图像的样本训练的过程中,通过调整模型参数,就可以尽快地训练出对专用图像的分类准确率较高机器学习模型,提高了训练效率。

在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中储存有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行以下步骤:将待分类的表情图像输入训练好的机器学习模型,得到输入的表情图像分类到每个分类标签所对应的概率;训练好的机器学习模型,是将表情图像的样本作为专用图像的样本、并采用机器学习模型训练方法训练得到的;确定得到的概率中的最大概率;将待分类的表情图像分类到最大概率对应的分类标签。

上述计算机设备,通过将表情图像输入到已训练好的机器学习模型中,确定所输入的表情图像分类到每个分类标签所对应的概率中的最大概率,将表情图像分类到最大概率所对应的分类标签,这样通过机器学习模型对表情图像进行分类,并选择最大概率所对应的分类标签作为分类结果,提高了表情图像分类的分类效率和准确率。

一种计算机可读存储介质,其上存储有计算机可读指令,该计算机可读指令被处理器执行时实现以下步骤:获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型;确定专用图像的样本和相对应的分类标签;将专用图像的样本输入机器学习模型,得到中间分类结果;按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练。

在一个实施例中,计算机可读指令使得处理器在执行确定专用图像的样本和相对应的分类标签时具体执行以下步骤:获取与分类标签相应的代表专用图像;按照代表专用图像与专用图像库中专用图像的相似度,确定专用图像库中与代表专用图像相似的专用图像;从代表专用图像和相似的专用图像中,选取满足差异性条件的专用图像,作为与分类标签相对应的专用图像的样本。

在一个实施例中,计算机可读指令使得处理器在执行获取与分类标签相应的代表专用图像步骤之后还执行以下步骤:获取代表专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;获取专用图像库中专用图像在输入到机器学习模型后,由机器学习模型的中间层输出的图像特征;根据代表专用图像的图像特征和专用图像库中专用图像的图像特征,计算代表专用图像与专用图像库中专用图像的相似度。

在一个实施例中,计算机可读指令使得处理器在执行将专用图像的样本输入机器学习模型,得到中间分类结果步骤之前,还执行以下步骤:配置机器学习模型分类的类别数与分类标签的种类数相匹配;执行将专用图像的样本输入机器学习模型,得到中间分类结果时具体执行以下步骤:将专用图像的样本输入机器学习模型,得到专用图像的样本分类到每个分类标签所对应的概率;确定得到的概率中的最大概率;将最大概率对应的分类标签作为专用图像的样本的中间分类结果。

在一个实施例中,计算机可读指令使得处理器在执行按照中间分类结果与分类标签的差异,调整机器学习模型的模型参数并继续训练,直至满足训练停止条件时结束训练时具体执行以下步骤:保持机器学习模型中按层顺序靠前的层的模型参数不变,按照中间分类结果与分类标签的差异,调整机器学习模型中按层顺序靠后的层的模型参数,并继续训练,直至满足训练停止条件时结束训练。

在一个实施例中,计算机可读指令使得处理器执行以下步骤:获取机器学习模型对待分类的专用图像分类失败时,所确定的未分类的专用图像集;对专用图像集进行聚类,得到专用图像子集;确定专用图像子集相对应的分类标签;根据专用图像子集和相对应的分类标签,以及专用图像的样本和相对应的分类标签,对机器学习模型进行再训练。

在一个实施例中,计算机可读指令使得处理器执行以下步骤:将待分类的专用图像输入机器学习模型,得到输入的专用图像分类到每个分类标签所对应的概率;确定得到的概率中的最大概率;当最大概率低于阈值时分类失败,并将输入的专用图像添加至未分类的专用图像集。

在一个实施例中,计算机可读指令使得处理器执行对专用图像集进行聚类,得到专用图像子集时具体执行以下步骤:将专用图像集中的专用图像输入到结束训练后所得到的机器学习模型后,获取机器学习模型的中间层所输出的相应专用图像的图像特征;根据专用图像集中专用图像的图像特征进行聚类,得到专用图像子集。

上述计算机可读存储介质,通过获取根据通用图像训练集训练得到的包括有模型参数的机器学习模型,使用专用图像的样本和相对应的分类标签对该机器学习模型进行训练。将根据通用图像训练集训练的知识迁移到根据专用图像的样本训练的过程中,通过调整模型参数,就可以尽快地训练出对专用图像的分类准确率较高机器学习模型,提高了训练效率。

一种计算机可读存储介质,其上存储有计算机可读指令,该计算机可读指令被处理器执行时实现以下步骤:将待分类的表情图像输入训练好的机器学习模型,得到输入的表情图像分类到每个分类标签所对应的概率;训练好的机器学习模型,是将表情图像的样本作为专用图像的样本、并采用机器学习模型训练方法训练得到的;确定得到的概率中的最大概率;将待分类的表情图像分类到最大概率对应的分类标签。

上述计算机可读存储介质,通过将表情图像输入到已训练好的机器学习模型中,确定所输入的表情图像分类到每个分类标签所对应的概率中的最大概率,将表情图像分类到最大概率所对应的分类标签,这样通过机器学习模型对表情图像进行分类,并选择最大概率所对应的分类标签作为分类结果,提高了表情图像分类的分类效率和准确率。

本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(read-onlymemory,rom)等。

以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。

以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1