一种基于补标记协同训练的偏多标记学习方法

文档序号:26588499发布日期:2021-09-10 20:06阅读:261来源:国知局
一种基于补标记协同训练的偏多标记学习方法

1.本发明属于计算机应用技术领域,具体涉及一种基于补标记协同训练的偏多标记学习方法。


背景技术:

2.偏多标记学习方法是一种新型的弱监督学习的一种,训练数据中一个样本对应多个候选标记,其中有多个标记为真,其他均为伪标记,与偏标记学习的区别在于真实标记的数量不同。
3.目前针对偏多标记学习的解决方法通常估计每个候选标记成为真实标记的置信度。例如pml

fp和pml

lc方法是初始化标记置信度后将其作为权重加入排名损失,利用交替优化最小化排名损失获得标记相关性排序。但该方法若候选标记置信度预估错误,会伴随交替优化过程影响模型。fpml方法是利用低秩矩阵近似标记与特征间隐含的依赖来识别噪声标记,并训练得到多标记分类器。pml

lrs方法是利用低秩矩阵和稀疏分解,从候选标记矩阵中获得真实标记矩阵和不相关标记矩阵,从而减轻噪声标记的影响。partice方法则是基于两阶段策略,将任务分解成标记置信度估计和预测模型推导。第一阶段通过迭代标记传播估计候选标记置信度,选择高置信度的可信标记;第二阶段基于可信标记训练多标记模型,该方法第一阶段可信标记选择对后续模型影响较大。
4.上述方法依赖传统机器学习,无法扩展到大型数据集上,极大限制了领域扩展和项目迭代;而且现有方法依赖单一模型的标记置信度,若存在错误则会随迭代叠加,导致后续模型性能下降;另外多标记学习中的标记噪声问题,往往会导致模型性能下降。


技术实现要素:

5.为解决上述问题,本发明公开了一种基于补标记协同训练的偏多标记学习方法,同时使用两个神经网络进行协同训练,使得模型能在迭代中逐步更新候选标记置信度,从而给予真实标记更高的关注,降低噪声标记的影响,提高学习模型的性能。
6.为达到上述目的,本发明的技术方案如下:
7.一种基于补标记协同训练的偏多标记学习方法,具体步骤如下:
8.(1)偏多标记训练集作为输入;
9.(2)神经网络f计算候选标记损失,并选择损失最小的若干样本作为知识提供给神经网络g;
10.(3)神经网络g计算补标记损失,并选择损失最小的若干样本作为知识提供给神经网络f;
11.(4)计算神经网络g选中的样本在神经网络f中的输出和目标标记之间的损失,来更新神经网络f的参数;
12.(5)计算神经网络f选中的样本在神经网络g中的输出和目标标记之间的损失,来更新神经网络g的参数;
13.(6)组合神经网络f和神经网络g的输出作为标记置信度;
14.(7)迭代优化神经网络;
15.(8)根据阈值对测试数据进行多标记预测;
16.(9)多标记指标评价;
17.(10)结果提交人工抽样复审;
18.(11)送入训练集,迭代以上过程。
19.进一步的,步骤(1)准备偏多标记训练数据,具体如下:
20.从任意偏多标记应用场景如图像、音频、文本等获得训练数据:令表示d维特征空间,表示含有q个标记的标记空间,则为d维特征向量,为示例x
i
的候选标记集合,为示例x
i
的补标记。真实标记集合隐藏在候选标记集合中,即模型将从中学习得到。
21.进一步的,步骤(2)计算候选标记损失
22.在不确定真实标记的情况下,直接利用候选标记指导神经网络f学习,采用交叉熵损失函数,公式如下:
[0023][0024]
其中s
k
表示候选标记y
k
的置信度,p
k
表示模型预测样本属于类别y
k
的概率,本方法使用softmax激活函数计算p
k
。对于候选标记,神经网络f希望使得输出概率p
k
越高越好。对一个批次样本计算损失后将其从小到大排序,选择部分损失较小的样本选择的比例由下式控制:
[0025][0026]
其中t是神经网络当前的epoch数,t
max
是设定的最大epoch数,η是学习率。由于候选标记中存在噪声标记,随着epoch的增加,神经网络f会对噪声标记逐渐过拟合。同时神经网络具有记忆效应,能够率先学习到简单干净的模式。因此选择的比例r(t)随epoch增加而减小,即更加“信任”模型初始学到的知识。
[0027]
进一步的,步骤(3)计算补标记损失
[0028]
神经网络g将仅从补标记中学习,其损失计算公式如下:
[0029][0030]
其中表示是否为补标记,若是则为1,否则为0。对于补标记,神经网络g希望使得输出概率p
k
越接近0越好。类似地,神经网络g对一个批次样本计算损失后将其从小到大排序,选择r(t)比例损失较小的样本
[0031]
进一步的,步骤(4)(5)更新神经网络参数
[0032]
神经网络f选择的样本将帮助神经网络g更新网络参数,同样地,神经网络g选择
的样本也将帮助神经网络f更新网络参数,即分别使用对方网络觉得可靠的样本,计算在己方网络中的损失来调整参数权重,公式如下:
[0033][0034][0035]
进一步的,步骤(6)更新标记置信度
[0036]
样本候选标记集合中每个标记的初始置信度均为1,将随着模型训练而改变。具体来说,按权重组合神经网络f、g在每个批次样本上的输出结果,并将其归一化后作为新的标记置信度。对一个批次中的每个样本x
i
,其标记置信度更新公式如下:
[0037][0038][0039]
其中α是平衡参数,控制分别从神经网络f、g中继承的信息比例。此外本方法仅更新候选标记的置信度,补标记显式地表明不属于样本,其置信度一直为0。
[0040]
进一步的,步骤(8)预测多标记
[0041]
模型训练完成后,通过下式对测试用例x
i*
进行多标记预测。
[0042][0043]
本发明的有益效果是:
[0044]
本发明所述的一种基于补标记协同训练的偏多标记学习方法,该方法针对机器学习场景下训练数据中多标记描述且标记空间含噪声的问题,提高学习模型的性能。本方法同时使用两个神经网络进行协同训练,其中一个网络仅从候选标记集合中学习,另一个网络仅从非候选标记集合即补标记中学习,两者在每个批次中互相学习并更新参数。而且本方法考虑了两个模型的输出,使得模型能在迭代中逐步更新候选标记置信度,从而给予真实标记更高的关注,降低噪声标记的影响。
附图说明
[0045]
图1为本发明系统框架图。
具体实施方式
[0046]
下面结合附图和具体实施方式,进一步阐明本发明,应理解下述具体实施方式仅用于说明本发明而不用于限制本发明的范围。
[0047]
如图所示,本发明所述的一种基于补标记协同训练的偏多标记学习方法,本方法使用两个神经网络互相指导学习。一个神经网络将训练集中的候选标记集合作为指导信息学习,但由于候选标记集合中存在噪声标记,会导致模型过拟合噪声,使得模型性能下降。于是本方法采用另一个神经网络从非候选标记集合即补标记中学习,补标记提供的信息是
明确的,能指导另一个模型的学习。接着更新标记置信度,置信度越大表示标记为真实标记的可能性越高。具体步骤如下:
[0048]
(1)偏多标记训练集作为输入;对任意偏多标记应用场景如图像、音频、文本等获得训练数据:令表示d维特征空间,表示含有q个标记的标记空间,则为d维特征向量,为示例x
i
的候选标记集合,为示例x
i
的补标记。真实标记集合隐藏在候选标记集合中,即模型将从中学习得到。
[0049]
(2)神经网络f计算候选标记损失,并选择损失最小的若干样本作为知识提供给神经网络g;
[0050]
在不确定真实标记的情况下,直接利用候选标记指导神经网络f学习,采用交叉熵损失函数,公式如下:
[0051][0052]
其中s
k
表示候选标记y
k
的置信度,p
k
表示模型预测样本属于类别y
k
的概率,本方法使用softmax激活函数计算p
k
。对于候选标记,神经网络f希望使得输出概率p
k
越高越好。对一个批次样本计算损失后将其从小到大排序,选择部分损失较小的样本选择的比例由下式控制:
[0053][0054]
其中t是神经网络当前的epoch数,t
max
是设定的最大epoch数,η是学习率。由于候选标记中存在噪声标记,随着epoch的增加,神经网络f会对噪声标记逐渐过拟合。同时神经网络具有记忆效应,能够率先学习到简单干净的模式。因此选择的比例r(t)随epoch增加而减小,即更加“信任”模型初始学到的知识。
[0055]
(3)神经网络g计算补标记损失,并选择损失最小的若干样本作为知识提供给神经网络f;
[0056]
神经网络g将仅从补标记中学习,其损失计算公式如下:
[0057][0058]
其中表示是否为补标记,若是则为1,否则为0。对于补标记,神经网络g希望使得输出概率p
k
越接近0越好。类似地,神经网络g对一个批次样本计算损失后将其从小到大排序,选择r(t)比例损失较小的样本
[0059]
(4)计算神经网络g选中的样本在神经网络f中的输出和目标标记之间的损失,来更新神经网络f的参数;
[0060]
(5)计算神经网络f选中的样本在神经网络g中的输出和目标标记之间的损失,来更新神经网络g的参数;
[0061]
神经网络f选择的样本将帮助神经网络g更新网络参数,同样地,神经网络g选
择的样本也将帮助神经网络f更新网络参数,即分别使用对方网络觉得可靠的样本,计算在己方网络中的损失来调整参数权重,公式如下:
[0062][0063][0064]
(6)组合神经网络f和神经网络g的输出作为标记置信度;
[0065]
样本候选标记集合中每个标记的初始置信度均为1,将随着模型训练而改变。具体来说,按权重组合神经网络f、g在每个批次样本上的输出结果,并将其归一化后作为新的标记置信度。对一个批次中的每个样本x
i
,其标记置信度更新公式如下:
[0066][0067][0068]
其中α是平衡参数,控制分别从神经网络f、g中继承的信息比例。此外本方法仅更新候选标记的置信度,补标记显式地表明不属于样本,其置信度一直为0。
[0069]
(7)迭代优化神经网络;
[0070]
(8)根据阈值对测试数据进行多标记预测;
[0071]
模型训练完成后,通过下式对测试用例x
i*
进行多标记预测。
[0072][0073]
(9)多标记指标评价;
[0074]
(10)结果提交人工抽样复审;
[0075]
(11)送入训练集,迭代以上过程。
[0076]
本发明提供了一种偏多标记学习方案,可以直接利用其从偏多标记数据中学习,提高分类模型性能,减少人工筛选提纯数据的成本。
[0077]
另外本发明中候选标记和补标记的损失计算主要基于交叉熵损失函数,也有其他损失计算方法。此外针对模型协同训练的方案,也可以考虑基于分歧的方式,即两个模型对同个样本的预测结果没有分歧,则给予该样本更高的权重;若有较大分歧,则降低该样本权重滞后学习或引入第三个模型承担“裁判”的作用。这些改进都属于本发明的保护范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1