技术简介:
本发明针对现有声场景分类模型准确率不足90%且内存占用高的问题,提出基于特征金字塔网络与SwinTransformer的优化方案。通过构建多层级特征提取模块,融合不同尺度特征图信息,增强语义与空间表达能力,显著提升分类精度至97%,同时降低模型内存占用,满足实际应用需求。
关键词:声场景分类,Transformer模型
1.本发明涉及声场景分类技术领域,具体为一种基于transformer的声场景分类方法。
背景技术:2.在自然环境中,声音是传递信息的重要媒介。例如,工业生产环境中异常声音、儿童玩闹声和公共场所嘈杂声等。在智能化场景中,对这些有意义音频数据进行专业化处理,能够为企业降低成本、获取盈利。
3.现有声学场景分类的主要应用领域可以分为三种:无人化智能监控、设备异常声音诊断、城市噪声检测。针对声学场景分类研究,国内外诸多学者主要针对数据驱动的方法开展了研究,对cnn、dnn、densenet等不同网络结构进行改进并将其应用于声学场景分类领域,然而,在单特征输入情况下,现有主流方法尚未达到工业生产环境中分类准确率90%的基本要求。而且,在真实应用场景的实时检测中,同时存在内存资源紧缺、模型内存占有率高的问题。
4.swin transformer网络在图像识别领域展现了其强大的特征提取能力,但其作为一种层级设计的网络结构,却没有充分利用各层之间的特征信息,且该模型在声学场景分类领域尚无系统的应用研究。
技术实现要素:5.本发明提出了一种基于transformer的声场景分类方法,用于解决单特征输入时,现有声学场景分类模型准确率不高且泛化能力不强的问题。
6.本发明提供一种基于transformer的声场景分类方法,包括以下步骤:
7.获取待分类的音频数据,并对其进行预处理;
8.基于特征金字塔网络构建声场景分类模型,其包括特征提取模块和特征融合模块;其中,所述特征提取模块包括依次连接的一个patch partition层,以及三个特征提取层,每个特征提取层中分别连接有不同数量的swin transformer block模块;所述特征融合模块对三个特征提取层生成的特征图进行级联合并处理;
9.利用声场景分类模型对待分类的音频数据进行分类,得到音频数据的声场景分类结果。
10.进一步地,所述获取待分类的音频数据,并对其进行预处理,包括:
11.针对不同声学场景按类别采集音频数据;
12.将所采集的音频数据划分成标准数据集,其划分规则包含音频场景种类、时长、采样频率;
13.对标准数据集进行特征提取,得到特征数据;
14.将特征数据从一维音频数据转换为二维时频图,转换方式包括依次对特征数据进行预加重、分帧、加窗、傅里叶变换;将经过傅里叶变换处理的时二维频图通过动态变换为
db_scale谱图,得到预处理后的数据;
15.将预处理后的数据按照一定比例分成训练集、测试集。
16.进一步地,所述特征提取模块包括一个patch partition层、一个linear embedding层、两个patch merging层,所述linear embedding层、patchmerging层中分别连接有不同数量的swintransformerblock模块;
17.所述swintransformer block模块成对出现。
18.进一步地,所述swin transformer block模块包含四个层归一化、两个不同的多头自注意力模块、两个隐藏层带gelu激活函数的多层感知机;
19.swin transformer block的第l、l+1层的输出特征,分别为:
[0020][0021][0022]
其中,分别为第l、l+1层swin transformer block的内中间值,其表达式分别为:
[0023][0024][0025]
其中,mlp为隐藏层带gelu激活函数的前馈人工神经网络;
[0026]
ln为层归一化;w-msa、sw-msa为不同自注意力模块;
[0027]zl-1
为swin transformer block的第l-1层的输出特征,其作为z
l
层的输入。
[0028]
进一步地,所述特征融合模块对多个特征提取层生成的特征图进行级联合并处理,包括:
[0029][0030]
其中,pm是集成后的特征图,pi为各个特征提取层结构逐层上采样2倍后的层次网络输出特征图,m表示特征提取网络实际层数,m=1,2,...,n。
[0031]
与现有技术相比,本发明的有益效果:
[0032]
本发明公开了一种基于特征金字塔网络和swin transformer方法,在声学场景分类领域可以有效完成分类识别工作,通过对swin transformer网络整体优化后,不仅降低最终生成模型内存占有率问题,使模型达到实际应用需求,而且在公开标准数据集urbansound8k上实验结果表明,分类效果较基线系统有很好的提升且模型准确率达到97%,优于当前大部分主流分类识别方法。
附图说明
[0033]
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
[0034]
图1为本发明一种基于transformer的声场景分类方法中的声场景分类模型的结
构示意图;
[0035]
图2为本发明一种基于transformer的声场景分类方法中采用不同特征提取方案的准确率变化曲线。
具体实施方式
[0036]
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,但应当理解本发明的保护范围并不受具体实施方式的限制。
[0037]
实施例1
[0038]
如图1所示,本发明提供了一种基于transformer的声场景分类方法,包括以下步骤:
[0039]
步骤s1:获取待分类的音频数据,并对其进行预处理;
[0040]
具体地,针对不同声学场景按类别采集音频数据;将所采集的音频数据划分成标准数据集,其划分规则包含音频场景种类、时长、采样频率;对标准数据集进行特征提取,得到特征数据;将特征数据从一维音频数据转换为二维时频图,转换方式包括依次对特征数据进行预加重、分帧、加窗、傅里叶变换;将经过傅里叶变换处理的时二维频图通过动态变换为db_scale谱图,得到预处理后的数据;将预处理后的数据按照一定比例分成训练集、测试集。
[0041]
步骤s2:基于特征金字塔网络构建声场景分类模型,其包括特征提取模块和特征融合模块;
[0042]
具体地,特征提取模块对输入数据进行深层次特征提取,其包括依次连接的一个patch partition层,以及三个特征提取层,三个特征提取层分别为一个linear embedding层、两个patch merging层,特征融合模块对三个特征提取层生成的特征图进行级联合并处理;
[0043]
linear embedding层、patch merging层中分别连接有不同数量的swin transformerblock模块,且swintransformerblock模块成对出现。
[0044]
swin transformerblock模块包含四个层归一化、两个不同的多头自注意力模块、两个隐藏层带gelu激活函数的多层感知机;
[0045]
swin transformerblock的第l、l+1层的输出特征,分别为:
[0046][0047][0048]
其中,分别为第l、l+1层swin transformer block的内中间值,其表达式分别为:
[0049][0050][0051]
其中,mlp为隐藏层带gelu激活函数的前馈人工神经网络;
[0052]
ln为层归一化;w-msa、sw-msa为不同自注意力模块;
[0053]zl-1
为swin transformer block的第l-1层的输出特征,其作为z
l
层的输入。
[0054]
特征融合模块对多个特征提取层生成的特征图进行级联合并处理,包括:
[0055][0056]
其中,pm是集成后的特征图,pi为各个特征提取层结构逐层上采样2倍后的层次网络输出特征图,m表示特征提取网络实际层数,m=1,2,...,n。
[0057]
步骤s3:还包括对声场景分类模型的声场景分类结果进行准确率检验;
[0058]
具体地,利用训练集对声场景分类模型进行训练,再对声场景分类模型的声场景分类结果进行准确率检验。根据分类结果的准确率对场景分类模型的分类参数进行更新,直至准确率满足一定值时,停止更新。
[0059]
当声场景分类模型训练完成后,利用测试集对声场景分类模型的训练精度进行检验,准确率计算公式如下:
[0060][0061]
其中,accuracy为声场景分类模型的准确率值;
[0062]
tp+tn为声场景分类模型预测的分类结果与样本标签一致数量,
[0063]
tp+fn+fp+tn为所有已预测样本数量,
[0064]
tp为预测值与真实值同为正样本数量,
[0065]
fn为真实值为正样本预测值为负样本数量,
[0066]
fp为真实值为负样本预测值为正样本数量,
[0067]
tn为预测值与真实值同为负样本数量。
[0068]
步骤s4:利用声场景分类模型对待分类的音频数据进行分类,得到音频数据的声场景分类结果。
[0069]
本发明公开了一种基于特征金字塔网络和swintransformer的声场景分类方法。通过对swintransformer整体网络架构优化,同时借鉴特征金字塔网络的思想,融合网络层次间特征图信息,增强特征图包含的语义信息与空间信息,提高声学场景分类模型的准确率,并在一定程度上降低模型内存占有率,使其能够应用在更多内存有限应用场景中。
[0070]
下面结合具体的实施例对本发明中的技术方案做具体实施方式的说明。
[0071]
本实施例中的数据集采用公开的标准数据集urbansound8k进行声场景分类试验,本发明中的声场景分类模型的分类准确率相较于现有的svm的基线系统的准确率提升约26个百分点,相较于声学特征为fbank的dnn分类网络模型准确率约有18%的提升,相较于声学特征为mfcc的cnn+bilstm+attention分类网络模型准确率约有17%的提升。
[0072]
如图2所示为本发明公开方法不同特征提取方案的准确率对比,其准确率随着迭代次数的增多,准确率逐步递增。
[0073]
最后说明的是:以上公开的仅为本发明的一个具体实施例,但是,本发明实施例并非局限于此,任何本领域的技术人员能思之的变化都应落入本发明的保护范围。