基于样本回想增量学习的信号调制分类模型及学习方法

文档序号:33712636发布日期:2023-04-01 00:33阅读:43来源:国知局
基于样本回想增量学习的信号调制分类模型及学习方法

1.本发明属于无线通信中信号识别技术领域,尤其是涉及一种基于样本回想增量学习的信号调制分类模型及其训练方法。


背景技术:

2.在通信技术领域中,为了便于信号无线发射,提高其抗干扰能力,同时满足不同的需求,需要对通信信号采取不同的调制方式。无线电信号调制分类一直是个持续讨论的问题,被广泛的应用于民用与军事领域。传统的调制分类主要有基于最大似然法和基于特征法。由于基于似然法的自动调制分类的高复杂计算性,并会受到无线信道环境的影响,因此难以部署。基于特征法被视为一种映射关系,特征的选择是否合理将强烈影响识别器的设计和性能。
3.近年来,随着计算机算力的几何性提升,以及数据量的爆炸式增长,机器学习和深度学习在业界和工业界都有爆发式的发展,一些优秀的神经网络模型也不断出现。深度学习是学习样本数据的内在规律和表示特征,在自然语言处理,计算机视觉,生物信息学中都取得了显著性成果,基于深度学习的调制分类也逐渐成为主流。
4.尽管基于深度学习的调制分类算法能够取得较好的分类效果,但是目前占主导地位的机器学习范式是孤立学习的,他不能保留所学知识在将来的学习中使用。当需要学习新任务时,如果没有旧数据的参与,新模型往往只会识别新的信号样本,旧任务会产生灾难性遗忘。一方面,希望学习到新的知识,另一方面,又必须防止新输入数据对旧知识的干扰,两种需求冲突构成了稳定性-可塑性困境,因此,解决增量学习的灾难性遗忘是目前遇到的最大挑战。
5.在增量学习过程中,需要考虑新旧任务性能的平衡性,也要考虑增量过程中计算机存储资源和任务性能的平衡。监督分类、任务式增量和多头网络结构的框架下实现增量学习都存在着较高的难度,而渐进式学习仍然是一个热门的研究领域,并将持续很长时间,未来应更加重视生物系统和计算模型的探索。


技术实现要素:

6.本发明的目的是针对上述问题,提供一种基于样本回想的无线电调制分类增量学习方法。
7.为达到上述目的,本发明采用了下列技术方案:
8.一种基于样本回想增量学习的信号调制分类模型,包括记忆回想模块、辨别模块和分类网络,所述的记忆回想模块包括依次拼接的记忆模块和回想模块,所述的记忆模块用于记忆原始样本,所述的回想模块用于回想记忆模块记忆的样本,在类增量训练任务中,将新的无线电信号样本和回想模块回想的回想样本作为本模型的样本数据训练本模型,所述的辨别模块用于与记忆回想模块构成对抗网络以训练记忆回想模块和辨别模块,所述的分类网络用于基于其输入输出分类结果。
9.在上述的基于样本回想增量学习的信号调制分类模型中,在第一次训练任务中,所述的原始样本仅包括本次训练任务的无线电信号样本,记忆回想模块、辨别模块基于本次训练任务的无线电信号样本进行训练;分类网络基于本次训练任务的无线电信号样本进行训练或基于回想模块对所述无线电信号样本的回想样本进行训练;
10.在非第一次任务的类增量训练阶段,原始样本包括当次训练任务的无线电信号样本和回想模块回想的回想样本,记忆回想模块、辨别模块基于本次训练任务的无线电信号样本和回想样本进行训练,分类网路的输入包括回想模块回想的回想样本和当次训练任务的无线电信号样本,即包括回想模块对旧样本的回想样本和新样本,或包括回想模块对于旧样本和新样本的回想样本,在测试或使用阶段,分类网络的输入为待分类的无线电信号样本。旧样本即之前训练任务的无线电信号样本,新样本即本次训练任务的无线电信号样本。
11.之前训练任务中记忆的样本,在被回想模块回想恢复后,使用本次训练后的记忆模块再次记忆,针对已经记忆过的样本,原始样本是指在本次训练任务中被回想模块恢复的样本。
12.在上述的基于样本回想增量学习的信号调制分类模型中,所述的记忆回想模块包括有嵌入于记忆模块和回想模块的嵌入式隐码向量层;
13.所述的记忆模块用于将原始样本转换为低维特征进行记忆,第一次训练任务下,记忆模块将本次训练任务的无线电信号样本转换为低维特征进行记忆,在后续训练任务下,记忆模块将本次训练任务的无线电信号样本和回想模块回想的无线电信号样本,即回想样本,转换为低维特征进行记忆:
14.zi=net1(xi)
ꢀꢀ
(3)
15.其中,xi表示第i类信号的原始样本,zi表示第i类信号的隐变量特征;
16.每一次训练任务下,保存该训练任务的原始样本的标签信息;同时嵌入式隐码向量层基于样本的标签信息动态存储记忆模块记忆的隐变量特征,每个样本的标签信息包括类标签和样本标签
17.回想模块基于记忆的隐变量特征回想相应的回想样本:
[0018][0019]
用于训练回想模块的损失函数为:
[0020][0021]
是回想模块对第i类信号回想得到的回想样本,xi是第i类信号的原始样本。
[0022]
在上述的基于样本回想增量学习的信号调制分类模型中,辨别模块与记忆回想模块构成的对抗网络包括以下损失函数:
[0023][0024]
l
gen
=-log(net3(z))
ꢀꢀ
(14)
[0025]
损失函数(3)用于更新辨别模块,损失函数(4)用于更新记忆模块,以混淆辨别模块;
[0026]
所述的分类网络包括交叉熵损失函数:
[0027][0028]
其中ρ表示批量数,为预测类标签,为真实类标签。
[0029]
在上述的基于样本回想增量学习的信号调制分类模型中,回想模块还用于对输入的类标签和样本标签进行如下转换后进行样本回想:
[0030]
采用独热编码方案对类标签进行编码,第i个样本的类标签表示为
[0031][0032]
将样本标签转换为低维度连续值,第i个样本的样本标签表示为
[0033][0034]
在新的训练任务中,嵌入式隐码向量层基于转换后的标签信息生成相应的隐变量特征:
[0035]
zi=codeembedding(y
1,i
,y
2,i
)
ꢀꢀꢀ
(10)
[0036]
回想模块基于生成的隐变量特征回想相应的回想样本。
[0037]
一种基于样本回想的信号调制分类增量学习方法,在第n次训练任务下,类增量学习的方法包括:
[0038]
将本次训练任务的无线电信号样本输入本模型,且所述的无线电信号样本具有类标签和样本标签
[0039]
记忆模块记忆本次训练任务的原始样本,原始样本包括本次训练任务的无线电信号样本和回想模块回想的回想样本;
[0040]
回想模块基于第n-1次训练任务中保存的类标签样本标签以及记忆模块在第n-1次训练任务中的记忆内容进行回想得到所述的回想样本;
[0041]
使用本次的原始样本训练记忆回想模块、辨别模块、分类网络;
[0042]
n为大于1的自然数;
[0043]
训练后的分类网络用于对待分类的无线电信号样本进行分类。
[0044]
当新任务到来时,使用新的无线电信号样本和上一次保存的旧回想模块的回想样本一起训练记忆回想模块,得到新的记忆回想模块,然后使用新回想模块对旧任务和新任务的回想样本来训练分类网络或使用新回想模块对就任务的回想样本和新任务来训练分类网络;
[0045]
训练后的记忆模块再次记忆本次训练的原始样本,同时保存当前训练好的新回想模块,等待下一次任务。
[0046]
在上述的基于样本回想的信号调制分类增量学习方法中,记忆模块的记忆过程如下:
[0047]
zi=net1(xi)
ꢀꢀ
(3)
[0048]
其中,xi表示第i类信号的原始样本,zi表示第i类信号的隐变量特征;
[0049]
在每次训练任务下,保存当次训练任务原始样本的标签信息
[0050]
当新任务到来时,回想模块回想样本的过程如下:
[0051]
[0052]
其中,表示的类标签,表示的样本标签,被输入至回想模块,回想的原始样本集为:
[0053][0054]
新的无线电信号样本数据集和回想的样本数据集形成一个新的数据集:
[0055][0056]
使用该新的数据集训练所述的分类网络;
[0057]
且训练所述分类网络的损失函数为交叉熵损失函数:
[0058][0059]
其中ρ表示批量数,为预测类标签,为真实类标签;
[0060]
训练回想模块的损失函数为:其中是回想模块的输出,xi是真实样本。
[0061]
在上述的基于样本回想的信号调制分类增量学习方法中,所述的记忆模块将记忆的隐变量特征存储至嵌入式隐码向量层;嵌入式隐码向量层基于样本的标签信息动态存储记忆模块记忆的隐变量特征;嵌入式隐码向量层表示为:codeembedding={z1,z2,...,z
l
},其中l代表隐变量的长度;
[0062]
回想模块基于识别出的隐变量特征输出回想样本:
[0063][0064]
在上述的基于样本回想的信号调制分类增量学习方法中,所述的回想模块采用独热编码方案对类标签进行编码,第i个样本的类标签表示为
[0065][0066]
所述的回想模块将样本标签转换为低维度连续值,第i个样本的样本标签表示为
[0067][0068]
在新的训练任务中,嵌入式隐码向量层基于转换后的标签信息生成相应的隐变量特征:
[0069]
zi=codeembedding(y
1,i
,y
2,i
)
ꢀꢀ
(10)
[0070]
其中i是样本的索引,回想模块再基于生成的隐变量特征输出回想样本;
[0071]
通过记忆模块的记忆,每次训练任务的无线电信号样本数据被转换为潜在代表的聚合后验分布q(z)
[0072][0073]
其中q(z)是编码分布,pd(x)是数据分布,q(z|x)是后验分布;
[0074]
记忆模块与辨别模块的训练过程如下:
[0075]
首先更新辨别模块,将先验分布的z

当做真实样本,将聚合后验分布的z作为假样本来更新辨别模块,损失函数表示为公式(13):
[0076]
l
dis
=-(log(net3(z

))+log(1-net3(z)))
ꢀꢀꢀ
(13)
[0077]
然后更新记忆模块来混淆辨别模块,损失函数表示为公式(14):
[0078]
l
gen
=-log(net3(z))
ꢀꢀꢀ
(14)。
[0079]
在上述的基于样本回想的信号调制分类增量学习方法中,在第一次训练任务下,分类网络基于本次训练任务的无线电信号样本进行训练;记忆模块记忆本次训练任务的无线电信号样本;
[0080]
本方法还包括:
[0081]
记忆模块选择性记忆信噪比高于设定阈值的样本进行记忆;
[0082]
在回想模块回想样本后,使用添加添加高斯白噪声的数据增强方法生成低信噪比范围的调制信号样本:其中是添加噪声后的信号,x是原始信号,a是噪声因子,w是高斯白噪声。
[0083]
本发明的优点在于:
[0084]
1、本方案引入了基于类标签与样本标签的记忆方式,在样本记忆阶段,记忆模块会对样本进行学习并生成低维度的特征表示,在样本回想阶段,只需对回想模块输入类标签与样本标签,就可以精确回想对应的样本;本方案无需保存样本数据,只需要保存训练的回想模块和样本标签信息即可,通过记忆回想模块这个框架来作为样本数据的仓库,克服了直接存储样本数据需占用大量内存的困境;
[0085]
2、本发明对于不同信噪比的调制信号数据集,提出了部分记忆和数据增强的学习方式。新任务到来时,只选择高信噪比的样本进行记忆,在回想旧样本训练分类器模型时,通过数据增强产生更多低信噪比的数据,通过丰富数据的多样性,在分类效果上达到比前者更高的分类性能。
附图说明
[0086]
图1为本发明基于样本回想的无线电调制分类增量学习框架图;
[0087]
图2为本发明记忆回想模块的结构图;
[0088]
图3为本发明辨别模块的结构图;
[0089]
图4为本发明分类网络的结构图;
[0090]
图5为基于数据集signaldatat 1的比较实验下各方法的分类结果图;
[0091]
图6为基于数据集signaldata2的比较实验下各方法的分类结果图;
[0092]
图7为实际加噪效果图;
[0093]
图8为各方法通过数据增强最终后的分类性能比较图;
[0094]
图9为测试集上不同信噪比下数据增强后各方法的分类性能比较图。
具体实施方式
[0095]
下面结合附图和具体实施方式对本发明做进一步详细的说明。
[0096]
为了解决类增量学习过程中无线电信号的灾难性遗忘问题,本方案提出了一种基于样本回想增量学习的信号调制分类模型及学习方法,其整体框架如图1所示,主要包括,记忆回想模块、辨别模块和分类网络。
[0097]
记忆回想模块中,记忆模块net1用于将原始样本转换为低维度特征,并将其存储
在单独的层中—嵌入式隐码向量层,通过组合上次训练任务保存的标签信息,回想模块net2可以准确地回想原始样本。
[0098]
辨别模块net3用于使用任何先验分布来规范数据的后验分布。
[0099]
分类网络ζ()用于基于样本信息预测分类结果,也可以用于评估样本的最终回想效果。
[0100]
当新任务到来时,记忆模块net1会再次记住回想的样本和新任务样本,将回想样本和新任务样本的低维度特征存储在单独的层中,在下一次任务时,通过组合标签信息,回想模块net2可以再次准确地回想记忆的样本。
[0101]
具体地,下面针对本方案涉及的各个模块和过程对本方案进行展开说明:
[0102]
记忆回想模块
[0103]
在记忆过程中,无线电信号的iq分量被用作网络的输入,表示为
[0104]
i=re{x(t)},q=im{x(t)}
ꢀꢀ
(1)
[0105]
其中,i是信号的实部,q是信号中的虚部,可以进一步表示为
[0106]
i=[i1,i2,

,i
l
],q=[q1,q2,

,q
l
]
ꢀꢀ
(2)
[0107]
其中l表示信号的长度。
[0108]
记忆模块net1将信号转换为低维特征表示:
[0109]
zi=net1(xi)
ꢀꢀ
(3)
[0110]
其中xi和zi分别代表第i类信号的原始样本与隐变量特征,针对本次训练任务的样本,原始样本就是本次训练任务新的无线电信号样本,针对前面训练任务的样本,属于已经记忆过的样本,原始样本是指在本次训练任务中被回想模块恢复的样本。通过此过程,原始数据被转换为潜在代表的聚合后验分布q(z)
[0111][0112]
其中q(z)是编码分布,pd(x)是数据分布,q(z|x)是后验分布。
[0113]
本方案的特点在于引入了基于类标签和样本标签的记忆方法,类标签用于表示不同的调制类别,样本标签用于表示每个信号样本。这两种类型的标签表示为:
[0114][0115]
其中g和k分别表示类别数和样本数。
[0116]
进一步地,本方案使用一种独热编码方案对类标签进行编码,以使神经网络更好地处理数据,第i个样本的类标签表示为
[0117][0118]
此外,本方案将word2vec方法引入神经网络,通过嵌入将样本标签转换为低维度连续值,能够避免由于样本数量过多,k过多导致向量维数太大而不利于计算的问题。第i个样本的样本标签表示为:
[0119][0120]
进一步地,本方案以字典的形式使用codeembedding层(嵌入式隐码向量层)来存
储低维度特征,以使样本准确响应其两个标签。
[0121]
codeembedding层表示为:codeembedding={z1,z2,...,z
l
}(8),其中l代表隐变量的长度。在训练阶段,codeembedding层根据标签信息动态更新低维度特征。
[0122]
回想模块net2是一个样本恢复模型,在网络的训练状态下,采用均方误差作为损失函数,以最小化输入和输出的重构误差,损失函数为:
[0123][0124]
其中是回想模块的输出。在测试阶段或者说使用阶段,只需要将存储的和发送到回想模块,将自动转换输入标签信息为y1、y2,codeembedding层对转化后的标签信息进行准确响应,生成对应的隐变量特征:
[0125]
zi=codeembedding(y
1,i
,y
2,i
)
ꢀꢀ
(10)
[0126]
其中i是样本的索引,回想模块基于识别出的隐变量特征回想样本:
[0127][0128]
具体地,本方案提供的记忆回想模块如图2所示。该网络由卷积层、最大池化层、全连接层、反卷积层和codeembedding层组成。其中“conv”表示卷积层,“maxpool”表示最大池层来压缩输入信号的大小,“fc”表示完全连接层,“deconv”表示反卷积层来恢复信号的大小、“codeembedding”表示嵌入式隐码向量层。“/2”表示以2为步进的卷积窗口,以减小输出的高度和宽度,“2/”表示以2为步进的反卷积窗口,以增加输出的高度和宽度。在样本存储阶段,嵌入式隐码向量层根据标签信息动态存储样本的特征向量,在样本回想阶段,通过输入的标签信息恢复相应的原始信号样本。
[0129]
辨别模块
[0130]
在辨别模块中,先验分布假定为正态分布p(z),可表示为
[0131][0132]
其中σ2表示方差,μ表示均值。使用对抗训练准则,先验分布p(z)和聚合后验分布q(z)被匹配和正则化,迫使记忆模块将数据分布转换为所需的先验分布。
[0133]
对抗训练本质上类似于gan的理论去欺骗一个实时更新的鉴别器,但与传统的gan不同,辨别模块的输入不是真样本或假样本,而是来自数据变换后的后验分布和正态先验分布。
[0134]
第一步是更新辨别模块,辨别模块net3中先验分布的输出被视为真实样本,而辨别模块中后验分布z的输出则被视为假样本,损失函数为:
[0135][0136]
第二步是更新记忆模块,以混淆辨别模块,损失函数为:
[0137]
l
gen
=-log(net3(z))
ꢀꢀ
(14)
[0138]
通过交替重复第一步和第二步来训练整个对抗网络,当整个对抗网络训练完成后,网络将数据的先验分布映射到后验分布,记忆模块可以更好地记忆样本,回想模块会是一种深度生成模型。
[0139]
本方案提供的辨别模块net3如图3所示。网络由四个全连接层、三个relu层和一个
sigmoid层组成,网络根据输入的分布判断输入是真是假,sigmoid层以概率的形式呈现判断结果。
[0140]
分类网络
[0141]
分类网络是用于实现无线电信号分类的主体网络,同样以无线电信号的iq作为网络的输入。在第一次训练任务中,记忆回想模块、辨别模块基于本次训练任务的无线电信号样本进行训练,训练结束后,可以使用训练后的回想模块对无线电信号样本的回想样本来训练分类网络,也可以直接用无线电信号样本原始样本训练分类网络,本实施例为了更好地评估本方案所提出记忆回想模块的记忆回想效果,使用前者,在一般场景下,可以优选后者。然后训练后的记忆模块会对本次训练任务的无线电信号样本进行记忆,保存训练后的记忆回想模块和本次训练任务的标签信息用于下一次训练任务。在每次训练任务中,记忆模块会对当次训练任务的无线电信号样本和回想模块回想的回想样本进行记忆,回想模块基于记忆模块对前面训练任务所记忆的信息以及保存的类标签和样本标签回想原始样本,分类网络基于当次训练任务的无线电信号样本和回想的回想样本,即回想的无线电信号样本,来进行训练,从而实现新任务和旧任务的同时训练,以在训练新任务时不致遗忘旧任务。当然分类网络也可以用于评估回想模块的回想效果,前面已经介绍,本实施例为了更好地评估本方案所提出记忆回想模块的记忆回想效果,使用回想模块对于旧样本和新样本的回想样本来训练分类网络。
[0142]
本方案提供的分类网络如图4所示,包括一个卷积层、两个残差块、一个平均池化层、一个最大池化层、一个全连接层和softmax层。其中“maxpool”表示最大池层,“avgpool”表示平均池层,”fc”表示完全连接层,“residual-block1-x”表示残差块1,“resideal-block2-x”表示残差块2,残差块2添加的卷积层用于使输出维度一致。“/2”表示以2为步长的卷积窗口,以减小输出的高度和宽度,最后通过softmax层将参数转换为概率分布。假设有一组用于训练的标记数据集除了当前分类任务的无线电信号样本外,此训练集中还可能包含以前任务的回想样本,本方案使用交叉熵作为训练损失函数来确定实际输出和预期输出之间的接近程度:
[0143][0144]
其中ρ是批量数,真实值越接近预测值,损失函数值越小。
[0145]
在增量学习过程:在对上一个任务进行训练后,保存标签信息和训练好的回想模块net2,以便下一次增量学习。当新任务到来时,将保存的标签信息输入至回想模块net2,通过回想模块net2回想原始样本
[0146][0147]
其中表示的真实类标签,表示的真实样本标签,回想的原始样本集为
[0148][0149]
新的任务数据集和回想的样本数据集形成了一个新的数据集,表示为
[0150][0151]
数据集将用于训练新任务和旧任务,并将被记忆以便在下一个任务中使用。
[0152]
优选地,在实际通信环境中,由于通信设备和外部环境的干扰,最终发送的调制信号处于非理想状态,在接收机处获得具有不同信噪比的调制信号。对于低信噪比的调制信号,内存成本太大。对此,本方案提出一种部分记忆的样本选择策略,只记忆信噪比高于设定阈值的调制信号样本。
[0153]
在此基础上,本方案在记忆少部分高信噪比的数据后通过数据增强来增加分类网络的泛化能力,以尽可能减少记忆样本内存空间的负担。在回想样本后,使用添加高斯白噪声的数据增强方法生成低信噪比范围的调制信号样本,该过程可描述为,其中是添加噪声后的信号,x是原始信号,a是噪声因子,w是高斯白噪声。数据增强解决了样本信噪比的不平衡问题,提高了分类模型的泛化能力,使分类器能够识别低信噪比信号,提高分类模型的鲁棒性。
[0154]
为了验证本方案的效果,本实施例采用无线电信号的数据集singaldatat1和singaldata2,在数据集singaldatat1和singaldatat2上分成不同任务序列,模仿增量过程,考虑增量的类别数,顺序数对增量结果的影响,在同样的卷积网络分类器上进行效果评估,实验结果证明本方案能够有效解决类增强学习的灾难性遗忘问题,部分实验数据和实验过程如下:
[0155]
singaldata1共有110000个信号样本,包括bpsk,qpsk,8psk,16qam,64qam,pam4,gfsk,cpfsk,b-fm,dsb-am,ssb-am这11类调制信号,每类调制信号有10000个样本和同一30db信噪比。每个信号样本的长度都是1024。
[0156]
singaldata2共有156000个样本,包括bpsk,qpsk,8psk,oqpsk,2fsk,4fsk,8fsk,16qam,32qam,64qam,4pam,8pam这12类调制信号。每类调制信号有13000个样本和26个级别的信噪比,信噪比范围为-20-30db,间隔为2db。每个信号样本的长度都是512。
[0157]
本实验将本方案与四种不同的基线方法进行比较,即微调,特征提取,icarl和联合训练。对于本实验的所有方法,使用相同的学习速率策略和参数。所有实验都在pytorch框架下进行。该模型在具有cpu intel core i7-9750h@2.60ghz、运行内存32gb和gpu geforce rtx2080的计算机上进行训练。
[0158]
微调法fine-turning,是指加载以前训练过的旧任务模型,并将与新任务对应的新的全连接层添加到模型中,添加的全连接层与旧任务的全连接层连接到单个输出中。经过微调,优化后的网络模型将用于对旧任务和新任务的信号进行分类。
[0159]
特征提取法feat.extraction,与微调类似,将加载以前训练过的旧任务模型,并将与新任务对应的新的全连接层添加到模型中。添加的全连接层与旧任务的全连接层连接到单个输出中。与微调不同,使用新任务的训练数据训练新网络时,冻结了除新添加的全连接层之外的所有层参数。新任务通过旧模型,并从网络学习的复杂功能中受益,除了网络的全连接层外,其他网络结构可视为特征抽取器。
[0160]
联合训练法joint training:训练当前任务时,联合以前任务的数据一起训练整个网络。联合训练的优点是获得所有分类结果中的最佳结果,并抵抗对旧任务的灾难性遗忘,但它需要较高的学习成本和存储资源,增量学习的性能上限较低。
[0161]
icarl:包含一个固定大小的样本存储空间,当完成一次增量任务后,保存当前任务的训练模型,并根据样本存储空间大小计算可以存储的每类样本数量,计算每类样本的平均特征,存储靠近每类平均特征的样本就可以将部分新数据添加到样本存储空间,并剔
除部分旧数据,使得存储的样本具有代表性。当新任务到来时,分类网络使用当前新类所有数据和样本存储空间的代表性旧数据进行训练,将旧模型与新模型进行知识蒸馏,来使得在学习新任务的时候,尽可能记忆旧任务的特征。
[0162]
signaldatat1:
[0163]
本实验比较了四种基线和本方案方法在增量过程中的效果。实验将信号数据集signaldatat1划分为不同的识别序列,各任务序列如表2所示,各方法的分类结果如图5所示。从图5可以看出,微调和特征提取可能导致灾难性遗忘,icarl可以略微缓解灾难性遗忘,而本方案方法(ours)和联合训练取得了有竞争力的结果。虽然在微调中对旧节点使用较小的学习速率,但参数的微小变化也会破坏网络处理旧任务的能力,导致灾难性遗忘。在特征提取的增量学习范式中,新任务的学习能力取决于先前模型的特征,该方法只学习新类的特征表示,因此该方法会偏向新类并产生灾难性的遗忘。联合训练范式利用所有新旧数据,从新的起点彻底训练一个新的网络,因此它可以最大限度地表达所有信号的特征,通常作为增量学习的上限。而本方案所提出的样本回想方法花费了比联合训练更少的代价,却得到了与联合训练类似的性能优势。
[0164]
表2各任务序列信息
[0165]
tasksignaldatat11bpsk,qpsk,8psk216qam,64qam34pam,gfsk4cpfsk,b-fm5dsb-am,ssb-am
[0166]
signaldatat2:
[0167]
1.部分记忆
[0168]
为了评估样本选择对学习性能的,本实验在signaldata2上选择了一个合适的记忆样本范围,具有不同的snr范围,包括10db及以上、0db及以上和10db及以上。将信号数据集划分为不同的识别序列,各任务序列如表3所示。根据表3的任务序列比较每个增量过程的分类性能。每个增量阶段的分类性能如表4所示。可以看出,在信噪比阈值为0db的情况下,每个增量步骤的分类精度高于其他两个snr情况。这意味着,如果信噪比太高,由于样本数量有限,性能将受到影响。然而,如果信噪比太低,性能将受到低信噪比样本的影响。基于存储成本和最终性能,最终选取信噪比为0db或以上的样本作为存储数据。
[0169]
表3各任务序列信息
[0170]
tasksignaldatat21bpsk,qpsk,8psk2oqpsk,2fsk,4fsk38fsk,16qam,32qam464qam,4pam,8pam
[0171]
表4不同信噪比阈值的任务准确度
[0172]
task-10db0db10db
173.3474.2167.27261.9969.8661.68332.6164.2059.54438.3058.3456.43
[0173]
本实验在数据集signaldata2上比较了四种基线和本方案的方法在增量过程中的效果。各方法的分类结果如图6所示。从图6看出,微调增量学习范式和特征提取增量学习范式仍旧会产生灾难性遗忘。icarl增量学习范式,由于引入了蒸馏损失函数和部分旧样本,因此可以略微缓解灾难性遗忘。本方案方法在最终的分类性能上与联合训练接近,总体而言,在该数据集上本方案提出的方法能有效抵抗增量学习过程中的灾难性遗忘。
[0174]
2.数据增强
[0175]
对于具有各种信噪比调制信号的数据集signaldata2,本方案提出了一种更少部分存储和数据增强方法,只需要存储一些高信噪比信号,并通过对回想的信号样本添加噪声和功率归一化来生成低信噪比的信号数据。实际的加噪效果如图7所示,左侧是i序列,右侧是q序列,蓝线为原始信号的iq通道序列,红线为加噪后的iq信道序列。
[0176]
以10db及以上的数据集作为记忆样本,在回想基础上通过数据增强展示其最终的分类性能,依旧按照表3的任务序列完成增量任务,实验结果如图8所示,可以看到数据增强后的分类性能有显著提升,并在第一次和第二次后增量的分类性能略微优于联合训练,这说明数据增强后的数据集极大的增强了模型的泛化能力。
[0177]
为了更好地显示数据增强的效果,本方案将测试集上不同信噪比的分类精度与不同增量方法的最终分类模型进行了比较。实验结果如图9所示,由图9可知,数据增强后,低信噪比的识别率显著提高,接近于所有信噪比联合训练的效果。由于icarl只保留了部分具有特征性的样本,所以相比微调和特征提取在高信噪比的识别率有部分提升。
[0178]
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1