一种基于注意力引导的卷积神经网络地震信号去噪方法

文档序号:26001237发布日期:2021-07-23 21:18阅读:252来源:国知局
一种基于注意力引导的卷积神经网络地震信号去噪方法

本发明涉及地震信号处理技术领域,具体涉及一种基于注意力引导的卷积神经网络的地震信号去噪方法(attention-guidedcnnforseismicsignaldenoising)对地震数据噪声压制的方法。



背景技术:

在地震勘探中,噪声的存在会极大地影响地震数据的质量,随着资源的减少,采集到的地震数据信噪比降低,噪声性质更加复杂,特别是一些地区的随机噪声具有低频、非高斯、非平稳、高能量的特点,在频域内有效信号与随机噪声之间存在严重的混叠。因此,为了获取高质量的地震信号,必须对地震信号进行去噪处理同时尽可能保持原始信息。传统的去除噪声的方法有:多项式拟合法、curvelet变换、小波变换法等,多项式拟合法只有在消除相干噪声后才能有较好的去噪效果,小波变换忽略了每个像素的特点,去噪后地震数据会出现较为严重的模糊现象,curvelet变换克服了傅里叶变换的缺点,能够保留地震数据细节信息,但会过度消除curvelet变换系数,去噪时会产生伪影。

为了克服传统浅层去噪的局限性,基于深度学习的去噪模型被提出。其中自编码网络、卷积神经网络以及生成对抗网络被广泛应用于去噪领域。基于自编码的dcaenn不具泛化能力;基于残差卷积神经网络的dncnn能够处理高斯噪声,但不能去除种类未知的噪声,并且随着网络深度的增加,浅层网络对深层网络的影响会减弱;基于生成对抗网络的sgan,网络不易训练,去噪时易丢失特征数据。



技术实现要素:

本发明是这样实现的,

一种基于注意力引导的卷积神经网络的地震信号去噪方法,包括如下:

s1:采用雷克子波合成地震记录中的有效信号,得到20个大小为640×128的干净地震信号,采用高斯白噪声合成20个大小为1500×5000的噪声信号;

s2:对合成的地震数据集进行预处理,获得9600个254×60的预训练数据,构建一个包含噪声的地震信号训练集;

s3:构造一个由稀疏块、特征增强块、注意力块、重建块四个模块构成的adnet网络模型并开始采用步骤s2的地震信号训练集训练;

s4:待训练完成后,采用所述基于注意力引导的卷积神经网络对地震数据噪声进行压制。

进一步地,s1中所述具体包括:

由雷克子波合成20个有效的地震数据,主频率在15hz到30hz之间,公式如下:

其中,a表示振幅,t0表示起始时间,f0表示主频。

进一步地,步骤s2中具体包括:

s21、将s1中合成的20个大小为640×128的地震信号,使用大小为50×50的滑动窗口,步长为10来截取信号,经过振幅归一化处理后生成包含9600个信号样本的信号集。

s22、将s1中合成的20个大小为1500×5000的噪声信号,使用大小为50×50的滑动窗口,步长为25来截取噪声数据,经过振幅归一化处理后生成包含11741个噪声样本的噪声集。

s23、将干净地震信号和噪声信号叠加,得到带有噪声的地震数据作为adnet网络的输入。

进一步地,s3中所述具体包括:

s31、构建17层的adnet网络结构包括:稀疏块、特征增强块、注意力块、重建块;

s32、稀疏块包含12层,第2层、第5层、第9层、第12层的操作包括扩张卷积、bn和激活,第1层、第3层、第4层、第6层、第7层、第8层、第10层、第11层的操作包括卷积、bn和激活;其中,所述激活采用的激活函数为relu,卷积滤波器大小为3×3;

s33、特征增强块包含4层,第13层、第14层、第15层的操作包括卷积、bn和激活,第16层仅进行卷积操作,所述激活采用的函数为relu。

s34、特征增强块后接注意力块,所述注意力块包含1个卷积层。

s35、重建块通过剩余学习的方法重建干净地震信号。

s36、设置均方误差函数为上述adnet去噪神经网络训练中的损失函数:

其中,分别表示第i个给定的干净地震信号和噪声信号,n表示带有噪声的地震数据样本个数,θ为训练去噪模型中的参数。

进一步地,s4中所述具体包括:

s41、将步骤s23得到的带有噪声的地震数据输入上述adnet去噪模型,其中,稀疏块将扩张率为2的卷积作为高能点,将普通卷积作为低能点,使用高能点来获取更多有用信息,输出噪声信号的映射函数。

s42、将步骤s41输出的映射函数与上述输入的带有噪声地震信号串联起来,特征增强模块将获得的特征转换为非线性。

s43、注意力块采用大小为1×1的卷积将步骤s42获得的特征压缩成向量调整前一阶段的权重,其次利用获得的权重乘以特征增强模块的输出,以提取更显著的噪声特征,得到预测残差信号。

s44、重建块以步骤s43的结果作为输入,联合s23中输入的带有噪声的地震数据,通过剩余学习的方法重建干净地震信号。

本发明与现有技术相比,有益效果在于:

本发明提供一种基于注意力引导的卷积神经网络的地震信号去噪方法。卷积神经网络作为一种有监督的深度学习,由于其独特的卷积层和权值共享特性,具有更高的性能和更低的计算复杂度,在卷积神经网络中引入注意力机制,稀疏块利用包含扩张卷积和普通卷积的自适应卷积去噪算法,提高了去噪性能和效率,减少深度;特征增强模块使用一条长路径融合来自浅层和深层的信息以增强去噪模型的表达能力;注意力块从给定的噪声数据中深度挖掘隐藏在复杂背景中的噪声信息,能够处理复杂的噪声信号,例如真实的噪声信号和盲去噪;特征增强模块与注意力块相结合以提高去噪模型的训练效率,降低训练复杂度。因此,本发明提供一种基于注意力引导的卷积神经网络的地震信号去噪方法,与传统方法相比,网络训练后无需手动调整参数,去噪模型表达能力强,去噪性能好,效率高。

附图说明

图1为本发明一种基于注意力引导的卷积神经网络的地震信号去噪方法的流程图;

图2为本发明一种基于注意力引导的卷积神经网络结构图;

图3为本发明合成的干净地震信号图像;

图4为本发明添加噪声后的地震信号图像;

图5为本发明一种基于注意力引导的卷积神经网络对地震信号去噪后的结果图。

具体实施方式

为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地描述。

请参考图1,本发明提供一种基于注意力引导的卷积神经网络的地震信号去噪方法,包括:

s1:采用雷克子波合成地震记录中的有效信号,得到20个大小为640×128的干净地震信号,采用高斯白噪声合成20个大小为1500×5000的噪声信号;

其中,由雷克子波合成20个有效的地震数据,主频率在15hz到30hz之间,公式如下:

a表示振幅,t0表示起始时间,f0表示主频。

s2:对合成的地震数据集进行预处理,获得9600个254×60的预训练数据,构建一个包含噪声的地震信号训练集;

s21、参考图2将s1中合成的20个大小为640×128的地震信号,使用大小为50×50的滑动窗口,步长为10来截取信号,经过振幅归一化处理后生成包含9600个254×60信号样本的信号集。

s22、将s1中合成的20个大小为1500×5000的噪声信号,使用大小为50×50的滑动窗口,步长为25来截取噪声数据,经过振幅归一化处理后生成包含11741个噪声样本的噪声集。

s23、参考图3将干净地震信号和噪声信号叠加,得到带有噪声的地震数据作为adnet网络的输入。

s3:参考图4构造一个由稀疏块、特征增强块、注意力块、重建块四个模块构成的adnet网络模型并开始采用步骤s2的地震信号训练集训练;

s31、构建17层的adnet网络结构包括:稀疏块、特征增强块、注意力块、重建块;

s32、稀疏块包含12层,第2层、第5层、第9层、第12层的操作包括扩张卷积、bn和激活,第1、3、4、6、7、8、10、11层的操作包括卷积、bn和激活;其中,所述激活采用的激活函数为relu,卷积滤波器大小为3×3。

s33、特征增强块包含4层,第13、14、15层的操作包括卷积、bn和激活,第16层仅进行卷积操作,所述激活采用的函数为relu。

s34、特征增强块后接注意力块,所述注意力块包含1个卷积层。

s35、重建块通过剩余学习的方法重建干净地震信号。

s36、设置均方误差函数为上述adnet去噪神经网络训练中的损失函数:

其中,分别表示第i个给定的干净地震信号和噪声信号,n表示带有噪声的地震数据样本个数,θ为训练去噪模型中的参数。

s4:待训练完成后,基于注意力引导的卷积神经网络对地震数据噪声进行压制:

s41、将步骤s23得到的带有噪声的地震数据输入上述adnet去噪模型,其中,稀疏块将扩张率为2的卷积作为高能点,将普通卷积作为低能点,使用高能点来获取更多有用信息,输出噪声信号的映射函数。

s42、将步骤s41输出的映射函数与上述输入的带有噪声地震信号串联起来,特征增强模块将获得的特征转换为非线性。

s43、注意力块采用大小为1×1的卷积将步骤s42获得的特征压缩成向量调整前一阶段的权重,其次利用获得的权重乘以特征增强模块的输出,以提取更显著的噪声特征,得到预测残差信号。

s44、参考图5重建块以步骤s43的结果作为输入,联合s23中输入的带有噪声的地震数据,通过剩余学习的方法重建干净地震信号。

对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其他实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1