文本分类模型的元学习方法、装置、设备及存储介质与流程

文档序号:26750559发布日期:2021-09-25 02:22阅读:139来源:国知局
文本分类模型的元学习方法、装置、设备及存储介质与流程

1.本发明涉及人工智能技术领域,尤其涉及一种文本分类模型的元学习方法、装置、设备及存储介质。


背景技术:

2.在例如人机对话或用户与人工客服的对话场景中,需要将对话内容整理成文本,然后根据文本中包含的主题对该文本内容进行分类,以便于了解各用户所关注的问题,便于更好的为用户提供对应的解决方案。
3.目前对于文本的分类方法是基于大量真实数据挖掘一拨主题,制定分类的类别后,开始进行大量的人工标注,然后训练一个分类器,通过该分类器对待分类的文本进行分类。然而现实中经常出现这些的场景,由于样本文本数据的局限,或者是之前的类别挖掘不充分,需要新增一个文本的主题或者类别,无疑又要再次积累大量的标注样本。实际情况是某些类别的文本样本在业务上本来就比较少,或者是在新增的业务服务类别中,标注样本本身就很少,要实现模型对新增的主题或者类别进行智能识别,使得训练样本的获取成本异常高。
4.现亟待提出一种通过少量文本样本就可以实现分类模型对新增的主题或类别进行训练的方法。


技术实现要素:

5.本发明实施例提供一种文本分类模型的元学习方法、装置、计算机设备及存储介质,以解决通过少量样本实现分类模型对新增类别进行学习时学习难度大、学习效率低的技术问题。
6.一种文本分类模型的元学习方法,该方法包括:
7.获取文本样本数据,该文本样本数据携带有该文本样本数据所属类别的标识,其中,至少一个该类别中包含的文本样本数据的数量小于预设值;
8.将文本样本数据的数量小于该预设值的类别中包含的文本样本数据确定为元测试集,将文本样本数据的数量大于等于该预设值的类别中包含的文本样本数据确定为元训练集;
9.通过该元训练集对文本分类模型进行元训练,得到文本分类模型学习器;
10.将该文本分类模型学习器作为待训练的文本分类模型,通过该元测试集对该文本分类模型学习器进行测试训练,当所述文本分类模型学习器的损失函数在测试阶段收敛时,得到训练好的文本分类模型。
11.一种文本分类模型的元学习装置,该装置包括:
12.样本获取模块,用于获取文本样本数据,该文本样本数据携带有该文本样本数据所属类别的标识,其中,至少一个该类别中包含的文本样本数据的数量小于预设值;
13.分类模块,用于将文本样本数据的数量小于该预设值的类别中包含的文本样本数
据确定为元测试集,将文本样本数据的数量大于等于该预设值的类别中包含的文本样本数据确定为元训练集;
14.学习器训练模块,用于通过该元训练集对文本分类模型进行元训练,得到文本分类模型学习器;
15.测试训练模块,用于将该文本分类模型学习器作为待训练的文本分类模型,通过该元测试集对该文本分类模型学习器进行测试训练,当所述文本分类模型学习器的损失函数在测试阶段收敛时,得到训练好的文本分类模型。
16.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述文本分类模型的元学习方法的步骤。
17.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述文本分类模型的元学习方法的步骤。
18.本发明提出的文本分类模型的元学习方法、装置、计算机设备及存储介质,首先将现有类别中包含样本数量较多的样本作为元训练集,通过该元训练集对文本分类模型进行元训练,得到训练好的文本分类模型学习器,在需要新增类别或者主题时,只需要对新增类别下包含的少量文本样本所属的实际类别进行标注,将标注后的样本作为所述元测试集对该文本分类模型学习器进行元测试,即可完成对该文本分类模型进行更新式训练。本发明提出的文本分类模型的元学习方法在对新增的文本类别进行训练时,只需要对新增类别下包含的文本进行少量标注即可完成对文本分类模型的再次训练,降低了新增类别中样本的获取难度,提高了文本分类模型的训练效率。
附图说明
19.为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
20.图1是本发明一实施例中文本分类模型的元学习方法的一应用环境示意图;
21.图2是本发明一实施例中文本分类模型的元学习方法的一流程图;
22.图3是本发明另一实施例中文本分类模型的元学习方法的一流程图;
23.图4是本发明一实施例中文本分类模型学习器的训练流程图;
24.图5是本发明一实施例中文本分类模型的网络结构示例图;
25.图6是本发明一实施例中文本分类模型的元学习装置的结构示意图;
26.图7是本发明一实施例中计算机设备的一示意图。
具体实施方式
27.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
28.本技术提供的文本分类模型的元学习方法,可应用在如图1所示的应用环境中,其中,该计算机设备可以通过网络与外部设备进行通信,该外部设备例如服务器。其中,该计算机设备可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
29.在一实施例中,如图2所示,提供一种文本分类模型的元学习方法,以该方法应用在图1中计算机设备为例进行说明,包括如下步骤s101至s104。
30.s101、获取文本样本数据,所述文本样本数据携带有所述文本样本数据所属类别的标识,其中,至少一个所述类别中包含的文本样本数据的数量小于预设值。
31.在其中一个实施例中,所述预设值可以人为设定,例如20个或者50个。所述少样本的类型还可以是语音类型的样本。
32.当原始样本的类型为语音类型时,在所述获取文本样本数据的步骤之前,所述方法还包括:
33.将所述语音类型的原始样本转换为所述文本样本数据。
34.进一步地,在所述获取文本样本数据的步骤之前,所述方法还包括:
35.获取样本文档;
36.对所述样本文档进行分词处理,得到所述文本样本数据。
37.其中,分词的方法可以通过bert语言表示模型进行分词。
38.s102、将文本样本数据的数量小于所述预设值的类别中包含的文本样本数据确定为元测试集,将文本样本数据的数量大于等于所述预设值的类别中包含的文本样本数据确定为元训练集。
39.其中,该元训练集用于对文本分类模型进行元训练,该元测试集用于对该文本分类模型进行元测试。可以理解的是,本实施例通过将各类别中包含的数量较多的文本样本数据作为元训练集对文本分类模型进行元训练可以得到文本分类模型学习器,该文本分类模型学习器通过对类别中包含的数量较少的文本样本继续学习,以实现learning to learn,最终可以得到训练好的文本分类模型。
40.可以理解的是,在将文本样本数据划分为元测试集和元训练集时,划分的时机可以是同时进行,也可以不同时进行,具体根据实际的应用场景而定。
41.例如,在不同类别中样本比例极不平衡的场景下对文本分类模型进行初始训练时,可以同时将该文本样本数据划分为元测试集和元训练集。在新增业务类型或新增文本类别的场景下,由于现有的类别或主题中已经存在大量文本样本,可以从文本样本数据中先抽取元训练集,等到新的业务或者文本类别增加时,再获取数量较少的元测试集。
42.s103、通过所述元训练集对文本分类模型进行元训练,得到文本分类模型学习器。
43.图4是本发明一实施例中文本分类模型学习器的训练流程图,在其中一个实施例中,如图4所示,所述通过所述元训练集对文本分类模型进行元训练,得到文本分类模型学习器的步骤具体包括s301至s306。
44.s301、从所述元训练集中抽取属于同一类别的查询训练样本和支撑训练样本。
45.可以理解的是,从元训练集中抽取训练样本时,可以批量抽取。具体地,以一个task为单位,每个task内均包含查询训练样本query set q和支撑训练样本support set s。在进行样本抽取时,从元训练集中抽取属于同一类别的查询训练样本和支撑训练样本,
优选地,可以以一个task为单位批量进行样本抽取,具体地可以采用n

way k

shot的方式进行抽取,表示随机抽取n个类别,在其中的每个类别中随机抽取k个样本,当n值取3、支撑训练样本的k值取2、查询训练样本的k值取1时,例如随机抽到的类别为a、b、c,分别从类别a、b、c中随机抽取2个样本作为对应类别的支撑训练样本,在抽取完支撑训练样本之后,分别从类别a、b、c中随机抽取1个样本作为对应类别的查询训练样本。
46.具体地,所述从所述元训练集中抽取属于同一类别的查询训练样本和支撑训练样本的步骤包括以下步骤s401和s402。
47.s401、从所有类别中随机抽取预设个类别。
48.其中,所述预设个类别例如3类。
49.s402、从抽取的每个类别中分别抽取所述查询训练样本和所述支撑训练样本。
50.进一步地,所述从抽取的每个类别中分别抽取所述查询训练样本和所述支撑训练样本的步骤进一步包括:
51.从抽取的每个类别中先随机抽取第一预设数量的所述支撑训练样本,再从对应的类别中抽取第二预设数量的查询训练样本。
52.本实施例通过在同一类别中先后依次抽取查询训练样本和支撑训练样本,有利于后续步骤在将第一样本向量与支撑训练样本所属类别的类别向量进行匹配时,确保能够匹配到同一类别中的不同样本,有利于模型参数的良性调整,可以加快文本分类模型的损失函数的快速收敛。
53.s302、通过所述文本分类模型的向量提取模块对所述查询训练样本进行向量提取,得到第一样本向量。
54.在其中一个实施例中,所述向量提取模块可以选用bert语言表示模型。该第一样本向量也可以理解为查询向量。
55.s303、通过所述文本分类模型的向量提取模块对所述支撑训练样本进行向量提取,得到第二样本向量。
56.可以理解的是,当该向量提取模块可以选用bert语言表示模型时,该第二样本向量也为词向量。
57.s304、将所述第二样本向量输入至所述文本分类模型的胶囊网络,得到所述支撑训练样本所属类别的类别向量。
58.在其中一个实施例中,该支撑训练样本所属类别的类别向量通过以下方式计算得到:
59.初始化胶囊网络的胶囊系数coupling cofficients,得到b
i’=(b
i1
,b
i2
,

,b
ik
,),其中,i表示第i个类别,k表示每个类别随机抽取k个样本;
60.获取预先设定的胶囊网络的超参数t,t表示类别的数量;
61.从r=1迭代至r=t,通过以下公式计算该支撑训练样本所属类别的类别向量b
i

[0062][0063]
其中,i表示类别中的第i个类别,j表示第i个类别中的第j个样本。当属于所有类别的支撑训练样本均计算完毕时,将某个类别中所有支撑训练样本输入完毕时对应的a
i
值确定为对应类别的类别向量。
[0064]
进一步地:
[0065][0066]
其中,w
s
表示所述胶囊网络中需要学习的参数,表示第i个类别中第j个支撑训练样本s的第二样本向量。
[0067]
可以理解的是,由于i的取值为支撑训练样本的所有类别,j的取值为类别i中的所有支撑训练样本,当i每取一个类别时,值的计算都是一个循环迭代的过程。
[0068]
进一步地,a
i
值通过以下公式计算得到:
[0069][0070][0071]
c
ij
=softmax(b
ij
)
[0072]
其中,softmax()表示归一化指数函数,将胶囊系数b
ij
作为该归一化指数函数的输入即可得到c
ij
,i表示第i个类别,ij表示第i个类别中的第j个支撑训练样本。
[0073]
s305、将所述第一样本向量与所述支撑训练样本所属类别的类别向量进行匹配,根据匹配的概率调整所述文本分类模型的向量提取模块和所述胶囊网络的参数。
[0074]
在其中一个实施例中,通过以下方式计算所述第一样本向量与所述支撑训练样本所属类别的类别向量的匹配概率:
[0075]
计算所述第一样本向量与每个类别的类别向量的余弦距离;
[0076]
根据所述余弦距离计算所述第一样本向量与每个所述类别的类别向量的匹配概率。
[0077]
进一步地,所述根据所述余弦距离计算所述第一样本向量与每个所述类别的类别向量的匹配概率的步骤包括:
[0078]
通过以下公式所述第一样本向量与所述支撑训练样本所属类别的类别向量的匹配概率:
[0079][0080]
其中,表示支撑训练样本q的第一样本向量e
q
与类别i
k
的类别向量之间的余弦距离,已知支撑训练样本q的实际类别为i
k
,表示支撑训练样本q的第一样本向量e
q
与类别i
j
的类别向量之间的余弦距离。
[0081]
s306、当所述文本分类模型的损失函数没有收敛时,循环所述从所述元训练集中抽取存在属于同一类别的查询训练样本和支撑训练样本至所述根据匹配的概率调整所述文本分类模型的向量提取模块和所述胶囊网络的参数的步骤,直到所述文本分类模型的损失函数在训练阶段收敛时,得到所述文本分类模型学习器。
[0082]
在其中一个实施例中,所述文本分类模型的损失函数表示为:
[0083][0084]
其中,s表示支撑训练样本,q表示查询训练样本,c表示支撑训练样本s的类别总数,n表示查询训练样本q的总数,表示所述匹配概率,y
q
表示样本q的实际
类别。
[0085]
在其中一个实施例中,可以通过梯度下降法判断所述文本分类模型的损失函数是否收敛,判断方法如下:
[0086]
l

l+l
b
[0087]
l
b
表示所述损失函数的梯度损失,当在训练的过程中l
b
逐步缩小,使得l+l
b
趋近于l时,判断所述文本分类模型的损失函数收敛。
[0088]
s104、将该文本分类模型学习器作为待训练的文本分类模型,通过该元测试集对该文本分类模型学习器进行测试训练,当该文本分类模型学习器的损失函数在测试阶段收敛时,得到训练好的文本分类模型。
[0089]
图3是本发明另一实施例中文本分类模型的元学习方法的一流程图,如图3所示,该步骤s104中将该文本分类模型学习器作为待训练的文本分类模型,通过该元测试集对该文本分类模型学习器进行测试训练的步骤包括以下步骤s201至s206。
[0090]
s201、从所述元测试集中抽取属于同一类别的查询测试样本和支撑测试样本。
[0091]
可以理解的是,从元测试集中抽取测试样本时,其抽取方式与上述从元训练集中抽取训练样本时相同,可以以一个task为单位进行批量抽取,每个task内均包含查询训练样本query set q和支撑训练样本support set s。从元训练集中抽取属于同一类别的查询训练样本和支撑训练样本的方式可以采用n

way k

shot的方式进行抽取,表示随机抽取n个类别,每个类别随机抽取k个样本。在其中一个实施例中,在对支撑训练样本进行随机抽取时,n值可以取3,k值可以取2,在对查询训练样本进行随机抽取时,n值可以取3,k值可以取1。
[0092]
可以理解的是,在对查询测试样本和支撑测试样本进行批量抽取时,要求查询测试样本和支撑测试样本所包含的类别数相同,每类包含的样本的数量可以不同,也可以相同。
[0093]
s202、通过所述文本分类模型学习器的向量提取模块对所述查询测试样本进行向量提取,得到查询测试样本向量。
[0094]
s203、通过所述文本分类模型学习器的向量提取模块对所述支撑测试样本进行向量提取,得到支撑测试样本向量。
[0095]
s204、将所述支撑测试样本向量输入至所述文本分类模型学习器的胶囊网络,得到所述支撑测试样本所属类别的类别向量。
[0096]
图5是本发明一实施例中文本分类模型的网络结构示例图,如图5所示,图5中的capsule network即表示胶囊网络,包括该向量提取模块和胶囊网络的文本分类模型的结构如图5所示。其中,query set表示查询训练样本,support set表示支撑训练样本,bert encode表示bert语言表示模型,capsule network表示所述胶囊网络,match表示匹配,class表示类别,example vector表示支撑样本向量,class vector表示类别向量,query vector表示查询样本向量。
[0097]
可以理解的是,由于对元测试集和元训练集的处理方式相同,其中,支撑样本向量包括支撑测试样本向量和支撑训练样本向量(即所述第二样本向量),查询样本向量包括查询测试样本向量和查询训练样本向量(即所述第一样本向量)。
[0098]
s205、将所述查询测试样本向量与所述支撑测试样本所属类别的类别向量进行匹
learn,最终可以得到训练好的文本分类模型。
[0108]
可以理解的是,在将文本样本数据划分为元测试集和元训练集时,划分的时机可以是同时进行,也可以不同时进行,具体根据实际的应用场景而定。
[0109]
例如,在不同类别中样本比例极不平衡的场景下对文本分类模型进行初始训练时,可以同时将该文本样本数据划分为元测试集和元训练集。在新增业务类型或新增文本类别的场景下,由于现有的类别或主题中已经存在大量文本样本,可以从文本样本数据中先抽取元训练集,等到新的业务或者文本类别增加时,再获取数量较少的元测试集。
[0110]
学习器训练模块13,用于通过该元训练集对文本分类模型进行元训练,得到文本分类模型学习器。
[0111]
测试训练模块14,用于将该文本分类模型学习器作为待训练的文本分类模型,通过该元测试集对该文本分类模型学习器进行测试训练,当该文本分类模型学习器的损失函数在测试阶段收敛时,得到训练好的文本分类模型。
[0112]
在其中一个实施例中,该测试训练模块14具体包括样本抽取模块、第一提取模块、第二提取模块、输入模块、匹配模块和循环模块。各功能模块详细说明如下:
[0113]
样本抽取模块,用于从该元测试集中抽取属于同一类别的查询测试样本和支撑测试样本。
[0114]
可以理解的是,从元测试集中抽取测试样本时,其抽取方式与上述从元训练集中抽取训练样本时相同,可以以一个task为单位进行批量抽取,每个task内均包含查询训练样本query set q和支撑训练样本support set s。从元训练集中抽取属于同一类别的查询训练样本和支撑训练样本的方式可以采用n

way k

shot的方式进行抽取,表示随机抽取n个类别,每个类别随机抽取k个样本。在其中一个实施例中,在对支撑训练样本进行随机抽取时,n值可以取3,k值可以取2,在对查询训练样本进行随机抽取时,n值可以取3,k值可以取1。
[0115]
可以理解的是,在对查询测试样本和支撑测试样本进行批量抽取时,要求查询测试样本和支撑测试样本所包含的类别数相同,每类包含的样本的数量可以不同,也可以相同。
[0116]
第一提取模块,用于通过该文本分类模型学习器的向量提取模块对该查询测试样本进行向量提取,得到查询测试样本向量。
[0117]
第二提取模块,用于通过该文本分类模型学习器的向量提取模块对该支撑测试样本进行向量提取,得到支撑测试样本向量。
[0118]
输入模块,用于将该支撑测试样本向量输入至该文本分类模型学习器的胶囊网络,得到该支撑测试样本所属类别的类别向量。
[0119]
匹配模块,用于将该查询测试样本向量与该支撑测试样本所属类别的类别向量进行匹配,根据属于同一类别的样本匹配的概率调整该文本分类模型学习器的向量提取模块和该胶囊网络的参数。
[0120]
循环模块,用于当该文本分类模型学习器的损失函数没有收敛时,循环该从该元测试集中抽取属于同一类别的查询测试样本和支撑测试样本至该根据属于同一类别的样本匹配的概率调整该文本分类模型学习器的向量提取模块和该胶囊网络的参数的步骤,直到该文本分类模型学习器的损失函数在测试阶段收敛时,得到训练好的该文本分类模型。
[0121]
作为可选地,当原始样本的类型为语音类型时,该文本分类模型的元学习装置100还包括:
[0122]
转换模块,用于将所述语音类型的原始样本转换为所述文本样本数据。
[0123]
在其中一个实施例中,所述学习器训练模块13进一步包括:
[0124]
样本抽取单元,用于从元训练集中抽取属于同一类别的查询训练样本和支撑训练样本;
[0125]
第一提取单元,用于通过该文本分类模型的向量提取模块对该查询训练样本进行向量提取,得到第一样本向量;
[0126]
第二提取单元,用于通过该文本分类模型的向量提取模块对该支撑训练样本进行向量提取,得到第二样本向量;
[0127]
输入单元,用于将该第二样本向量输入至该文本分类模型的胶囊网络,得到该支撑训练样本所属类别的类别向量;
[0128]
匹配单元,用于将该第一样本向量与该支撑训练样本所属类别的类别向量进行匹配,根据匹配的概率调整该文本分类模型的向量提取模块和该胶囊网络的参数;
[0129]
循环单元,用于当该文本分类模型的损失函数没有收敛时,循环该从该元训练集中抽取存在属于同一类别的查询训练样本和支撑训练样本至该根据匹配的概率调整该文本分类模型的向量提取模块和该胶囊网络的参数的步骤,直到该文本分类模型的损失函数在训练阶段收敛时,得到该文本分类模型学习器。
[0130]
进一步地,所述匹配单元具体用于计算所述第一样本向量与每个类别的类别向量的余弦距离,根据所述余弦距离计算所述第一样本向量与每个所述类别的类别向量的匹配概率。
[0131]
在其中一个实施例中,所述匹配单元具体用于通过以下公式计算该第一样本向量与该支撑训练样本所属类别的类别向量的匹配概率:
[0132][0133]
其中,表示支撑训练样本q的第一样本向量e
q
与类别i
k
的类别向量之间的余弦距离,已知支撑训练样本q的实际类别为i
k
,表示支撑训练样本q的第一样本向量e
q
与类别i
j
的类别向量之间的余弦距离。
[0134]
在其中一个实施例中,该文本分类模型的损失函数表示为:
[0135][0136]
其中,s表示支撑训练样本,q表示查询训练样本,c表示支撑训练样本s的类别总数,n表示查询训练样本q的总数,r
iq
表示所述匹配概率,y
q
表示样本q的实际类别。
[0137]
在其中一个实施例中,所述输入单元具体包括:
[0138]
初始化单元,用于初始化胶囊网络的胶囊系数,得到b
i’=(b
i1
,b
i2
,

,b
ik
,);
[0139]
计算单元,用于通过以下公式计算所述支撑训练样本所属类别的类别向量:
[0140][0141][0142][0143][0144]
c
ij
=softmax(b
ij
)
[0145]
其中,i表示类别中的第i个类别,w
s
表示所述胶囊网络中需要学习的参数,表示第i个类别中第j个支撑训练样本s的第二样本向量,softmax()表示归一化指数函数,ij表示第i个类别中的第j个支撑训练样本。
[0146]
在其中一个实施例中,所述样本抽取单元进一步包括:
[0147]
类别抽取单元,用于从所有类别中随机抽取预设个类别;
[0148]
训练样本抽取单元,用于从抽取的每个类别中分别抽取该查询训练样本和该支撑训练样本。
[0149]
进一步地,该训练样本抽取单元具体用于从抽取的每个类别中先随机抽取第一预设数量的所述支撑训练样本,再从对应的类别中抽取第二预设数量的查询训练样本。
[0150]
其中,所述预设个类别例如3类。可以理解的是,从元训练集中抽取训练样本时,可以批量抽取。具体地,以一个task为单位,每个task内均包含查询训练样本query set q和支撑训练样本support set s。在进行样本抽取时,从元训练集中抽取属于同一类别的查询训练样本和支撑训练样本,优选地,可以以一个task为单位批量进行样本抽取,具体地可以采用n

way k

shot的方式进行抽取,表示随机抽取n个类别,在其中的每个类别中随机抽取k个样本,当n值取3、支撑训练样本的k值取2、查询训练样本的k值取1时,例如随机抽到的类别为a、b、c,分别从类别a、b、c中随机抽取2个样本作为对应类别的支撑训练样本,在抽取完支撑训练样本之后,分别从类别a、b、c中随机抽取1个样本作为对应类别的查询训练样本。
[0151]
本实施例通过在同一类别中先后依次抽取查询训练样本和支撑训练样本,有利于后续步骤在将第一样本向量与支撑训练样本所属类别的类别向量进行匹配时,确保能够匹配到同一类别中的不同样本,有利于模型参数的良性调整,可以加快文本分类模型的损失函数的快速收敛。
[0152]
进一步地,该样本获取模块11进一步包括:
[0153]
样本文档获取单元,用于获取样本文档;
[0154]
分词单元,用于对该样本文档进行分词处理,得到该文本样本数据。
[0155]
其中上述模块/单元中的“第一”和“第二”的意义仅在于将不同的模块/单元加以区分,并不用于限定哪个模块/单元的优先级更高或者其它的限定意义。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或模块的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或模块,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或模块,本技术中所出现的模块的划分,仅仅是一种逻辑上的划分,实际应用中实现时可以有另外的划分方式。
[0156]
关于文本分类模型的元学习装置的具体限定可以参见上文中对于文本分类模型的元学习方法的限定,在此不再赘述。上述文本分类模型的元学习装置中的各个模块可全
部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
[0157]
本发明提出的文本分类模型的元学习装置首先将现有类别中包含样本数量较多的样本作为元训练集,通过该元训练集对文本分类模型进行元训练,得到训练好的文本分类模型学习器,在需要新增类别或者主题时,只需要对新增类别下包含的少量文本样本所属的实际类别进行标注,将标注后的样本作为所述元测试集对该文本分类模型学习器进行元测试,即可完成对该文本分类模型进行更新式训练。本技术提出的文本分类模型的元学习方法在对新增的文本类别进行训练时,只需要对新增类别下包含的文本进行少量标注即可完成对文本分类模型的再次训练,降低了新增类别中样本的获取难度,提高了文本分类模型的训练效率。
[0158]
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图7所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部服务器通过网络连接通信。该计算机程序被处理器执行时以实现一种文本分类模型的元学习方法。
[0159]
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中文本分类模型的元学习方法的步骤,例如图2所示的步骤101至步骤109及该方法的其它扩展和相关步骤的延伸。或者,处理器执行计算机程序时实现上述实施例中文本分类模型的元学习装置的各模块/单元的功能,例如图6所示模块11至模块19的功能。为避免重复,这里不再赘述。
[0160]
所述处理器可以是中央处理单元(central processing unit,cpu),还可以是其他通用处理器、数字信号处理器(digital signal processor,dsp)、专用集成电路(application specific integrated circuit,asic)、现成可编程门阵列(field

programmable gate array,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述计算机装置的控制中心,利用各种接口和线路连接整个计算机装置的各个部分。
[0161]
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述计算机装置的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、视频数据等)等。
[0162]
所述存储器可以集成在所述处理器中,也可以与所述处理器分开设置。
[0163]
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中文本分类模型的元学习方法的步骤,例如图2所
示的步骤101至步骤109及该方法的其它扩展和相关步骤的延伸。或者,计算机程序被处理器执行时实现上述实施例中文本分类模型的元学习装置的各模块/单元的功能,例如图6所示模块11至模块19的功能。为避免重复,这里不再赘述。
[0164]
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本技术所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦除可编程rom(eeprom)或闪存。易失性存储器可包括随机存取存储器(ram)或者外部高速缓冲存储器。作为说明而非局限,ram以多种形式可得,诸如静态ram(sram)、动态ram(dram)、同步dram(sdram)、双数据率sdram(ddrsdram)、增强型sdram(esdram)、同步链路(synchlink)dram(sldram)、存储器总线(rambus)直接ram(rdram)、直接存储器总线动态ram(drdram)、以及存储器总线动态ram(rdram)等。
[0165]
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
[0166]
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1