一种多标签分类模型训练方法与流程

文档序号:32155562发布日期:2022-11-11 22:39阅读:238来源:国知局
一种多标签分类模型训练方法与流程

1.本发明涉及深度学习模型技术领域,特别是涉及一种多标签分类模型训练方法。


背景技术:

2.深度学习模型发展进程中,传统数据挖掘单标签分类技术也称为多类分类技术,它由已知的有限标签集l将实例x与单个标签1关联在一起。单标签数据集d为{(x1,l1),

,(xn,ln)};多标签分类s是l的一个真子集,即s中的元素为{(x1,s1),

,(xn,sn)}。多标签分类技术受到越来越多的关注,并且众多领域得到应用,比如在文本分类、基因组合等领域的应用。
3.多标签分类比较常见的技术方案是把多标签分类问题转化为单标签分类问题,或把多标签问题转化为多个单标签分类问题。这种技术方案可以使用单标签分类器进行单标签分类,然后这些分类器将转换为多标签表示,而实现这种技术方案的方法有:朴素贝叶斯法、支持向量机和k-最邻近算法。
4.纵观这些技术方案,多标签分类问题转化为单标签分类问题的本质还是应用单标签分类技术,而在转化过程中,由于对现有算法的修改、叠加、嵌套调用使整个训练模型复杂度增加了数倍,效率也降低了数倍;如果标签集l规模庞大,转化技术基本没有实际使用意义。这种实际情况给这些应用领域的人们应用标签分类技术造成很大的应用困扰。
5.由此可以看出,现有多标签分类模型训练方法以单标签分类模型训练方法转化的方案存在实际应用缺陷,即对传统单标签分类技术的修修改改已不能满足大数据集,大数据量等标签分类模型的应用。


技术实现要素:

6.鉴于以上所述现有技术的缺点和使用者实际需求,本发明的目的在于提供一种多标签分类模型训练方法,用于解决现有技术中存在的问题,并能应用于数据集规模较大的标签集l。
7.为实现上述目的及其他相关目的,本发明采用的技术方案如下:
8.一种多标签分类模型训练方法,包括步骤:
9.s1)输入训练集x={(x1,l1),(x2,l2),

,(xn,ln)},输入单二进制分类器序列c={c1,c2,

,cn},输入顺序集k={k1,k2,

,kn},所述顺序集k={k1,k2,

,kn}是单二进制分类器序列c的排列顺序,其中,ck是单二进制分类器序列c的第k个元素,x1,x2,

,xn∈s,s是实例集,其中,l1,l2,

,ln∈l,l是标签集,|l|是标签集l的长度;
10.s2)按照单二进制分类器序列c的排列顺序,用ck去预测样本集x的第i个元素xi是否包含标签集l的第j个标签lj,有:
[0011][0012]
s3)记pk(xi)是ck用样本xi逐个预测了标签集l的所有元素ck(xi,l1),ck(xi,
l2),

,ck(xi,l
|l|
)的并集,即:
[0013]
pk(xi)={ck(xi,l1)∪ck(xi,l2)∪

∪ck(xi,l
|l|
)};
[0014]
s4)记fy是py(x1),py(x2),

,py(xn)的集合,即:fy={py(x1),py(x2),

,y(xn)},其中y∈(1,|l|);
[0015]
s5)记新样本uz={x1,x2,

,xn,f1,

,f
z-1
|z∈(1,n-1)},其中第z个新样本由实例集{x1,

,xn}的尾部连接上{f1,

,f
z-1
}的头部构成,总共有n-1个新样本;
[0016]
s6)记u是n-1个新样本的集合,即u={u1,u2,

,u
n-1
};
[0017]
s7)记ccq为第q个新样本uq训练第q个单二进制分类器cq得到的第q个新分类器,总共有n-1个新分类器;
[0018]
s8)记cc是n-1个新分类器的集合,即cc={cc1,cc2,

,cc
n-1
},将cc作为多标签分类模型训练方法的最终输出结果。
[0019]
可选地,步骤s1)所述的顺序集k由一个乱序集、升序集、降序集或由权重系数确定的排序集构成。
[0020]
可选地,步骤s4)所述的fk有n个元素。
[0021]
可选地,步骤s5)所述的uz={x1,x2,

,xn,f1,

,f
z-1
|z∈(1,n-1)}元素间的顺序不可交换。
[0022]
可选地,步骤s6)所述的u={u1,u2,

,u
n-1
}元素间的顺序不可交换。
[0023]
可选地,步骤s8)所述的cc={cc1,cc2,

,cc
n-1
}元素间的顺序不可交换。
[0024]
本发明的有益效果是:cc1,

,cck在分类器之间传递标签信息,cc1,

,cck考虑了标签之间的相关性,从而克服诸如二元关联这类方法中出现的标签独立性问题,并且本发明仍保留有二元关联方法的优势,包括低内存使用量和低运行时间复杂性。虽然平均|l|/2个特性添加到每个实例,因为|l|在实践中总是有限的,所以,对复杂性的后果微乎其微。
附图说明
[0025]
图1是一种链式结构多分类器的系统框图。
[0026]
图2是一种多标签分类模型训练方法示意图。
具体实施方式
[0027]
为了使本发明的目的、技术方案及优点更清楚明白,一下结合附图,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明。
[0028]
在一实施例中,一种多标签分类模型训练方法,整体架构结构如图1所示;实施流程如图2所示,包括步骤:
[0029]
s1)输入训练集x={(x1,l1),(x2,l2),

,(xn,ln)},输入单二进制分类器序列c={c1,c2,

,cn},输入顺序集k={k1,k2,

,kn},所述顺序集k={k1,k2,

,kn}是单二进制分类器序列c的升序排列顺序,其中,ck是单二进制分类器序列c的第k个元素,x1,x2,

,xn∈s,s是实例集,其中,l1,l2,

,ln∈l,l是标签集,|l|是标签集l的长度;
[0030]
s2)按照单二进制分类器序列c的排列顺序,用ck去预测样本集x的第i个元素xi是否包含标签集l的第j个标签lj,有:
[0031][0032]
s3)记pk(xi)是ck用样本xi逐个预测了标签集l的所有元素ck(xi,l1),ck(xi,l2),

,ck(xi,l
|l|
)的并集,即:
[0033]
pk(xi)={ck(xi,l1)∪ck(xi,l2)∪

∪ck(xi,l
|l|
)};
[0034]
s4)记fy是py(x1),py(x2),

,py(xn)的集合,即:fy={py(x1),py(x2),

,py(xn)},其中y∈(1,|l|),集合{py(x1),py(x2),

,py(xn)}总共有n个元素;
[0035]
s5)记新样本uz={x1,x2,

,xn,f1,

,f
z-1
|z∈(1,n-1)},其中第z个新样本由实例集{x1,

,xn}的尾部连接上{f1,

,f
z-1
}的头部构成,总共有n-1个新样本,新样本uz的元素从第一个x1到最后一个f
z-1
的排列顺序是x1,x2,

,xn,f1,f2,

,f
z-1

[0036]
s6)记u是n-1个新样本的集合,u的元素从第一个u1到最后一个u
n-1
的排列顺序为:u1,u2,

,u
n-1
,即u={u1,u2,

,u
n-1
};
[0037]
s7)记ccq为第q个新样本uq训练第q个单二进制分类器cq得到的第q个新分类器,总共有n-1个新分类器;
[0038]
s8)记cc是n-1个新分类器的集合,cc的元素从第一个cc1到最后一个cc
n-1
的排列顺序为:cc1,cc2,

,cc
n-1
,即cc={cc1,cc2,

,cc
n-1
},将cc作为多标签分类模型训练方法的最终输出结果。
[0039]
本发明的有益效果是:cc1,

,cck在分类器之间传递标签信息,cc1,

,cck考虑了标签之间的相关性,从而克服诸如二元关联这类方法中出现的标签独立性问题,并且本发明仍保留有二元关联方法的优势,包括低内存使用量和低运行时间复杂性。虽然平均|l|/2个特性添加到每个实例,因为|l|在实践中总是有限的,所以,对复杂性的后果微乎其微。因此,相对于现有技术,本发明考虑标签之间的依赖关系,最终模型的泛化能力相对于二元关联这类方法构建的模型效果要好、效率更高、资源占用率更低、使用性更加广泛。
[0040]
以上仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1