一种基于WGAN模型的图像通道融合方法与流程

文档序号:15164548发布日期:2018-08-14 17:19阅读:1663来源:国知局

本发明涉及深度学习神经网络,具体涉及一种基于wgan模型的图像通道融合方法。



背景技术:

生成式对抗网络(generativeadversarialnetwork,简称gan)是由goodfellow在2014年提出的深度学习框架,它基于“博奕论”的思想,构造生成器(generator)和判别器(discriminator)两种模型,前者通过输入(0,1)的均匀噪声或高斯随机噪声生成图像,后者对输入的图像进行判别,确定是来自数据集的图像还是由生成器产生的图像。

在传统的对抗网络模型中,对于生成器生成图像质量并没有统一的评判标准,因此,需要本领域技术人员选取一种合理的参数作为生成对抗网络的评判指标,可以使得整个模型的训练能够往正确的方向进行,同时,亟待提出一种特征融合方法,提高深度学习神经网络的鲁棒性。



技术实现要素:

本发明的目的是为了解决现有技术中的上述缺陷,提供一种基于wgan模型的图像通道融合方法,该方法利用沃瑟斯坦距离作为生成对抗网络的评判指标,从而使整个模型的训练能够往正确的方向进行,另外利用通道融合学习图像特征的方法,在每一层卷积之后都对图像各个通道的特征图进行融合,提高了整个网络的鲁棒性。

本发明的目的可以通过采取如下技术方案达到:

一种基于wgan模型的图像通道融合方法,所述的图像通道融合方法包括以下步骤:

s1、构造原始生成对抗网络模型,通过生成器生成图像并输入至判别器进行网络训练;

s2、构造沃瑟斯坦距离,作为对抗网络模型的评判指标;

s3、初始化随机噪声,输入生成器中;

s4、在wgan模型中利用通道融合对图像进行卷积操作;

s5、将通道融合操作得到的损失函数输入生成器进行后续训练。

进一步地,所述的步骤s4过程如下:

s41、将图像分解成多个通道;

s42、针对图像的各个通道,利用不同的卷积核进行卷积;

s43、在每一层卷积完成之后,对所有通道的特征图融合。

进一步地,所述的步骤s5过程如下:

s51、将步骤s4中卷积之后的特征图,输入判别器进行判别;

s52、将通道融合操作得到的损失函数输入生成器进行后续训练。

进一步地,所述的损失函数的表达式为:

其中,d(x)表示判别器对图像的判别,pr表示数据集图像的分布,pg表示生成图像的分布,λ为超参数,为梯度。

本发明相对于现有技术具有如下的优点及效果:

1、在传统的模型中,图像各个通道的特征图经过多层卷积之后才进行融合,本方法采用了通道融合的方法,在每一层卷积结束之后,都对图像各个通道的特征图进行融合,再进行后续训练。在这种情况下,整个网络的鲁棒性得到了进一步增强。

2、在本发明中,利用沃瑟斯坦距离作为生成对抗网络的评判指标,从而使整个模型的训练能够往正确的方向进行

附图说明

图1是本发明中基于wgan模型的图像通道融合方法的训练流程图;

图2是针对特定的卷积层进行通道融合的示意图。

具体实施方式

为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

实施例

如附图1和附图2所示。本实施例公开了一种基于wgan模型的图像通道融合方法,具体包括下列步骤:

步骤s1、构造原始生成对抗网络模型,通过生成器生成图像并输入至判别器进行网络训练。

步骤s2、构造沃瑟斯坦距离,作为对抗网络模型的评判指标;

不同的卷积核,体现在矩阵数值的不同、行列数的不同。

构造多个卷积核,在处理图像的过程中,不同的卷积核意味着能够在网络训练的过程中学习到生成图像的不同特征。

在本发明所涉及到的网络模型中,利用沃瑟斯坦距离作为生成对抗网络的评判指标,从而使整个模型的训练能够往正确的方向进行。

在传统的模型中,图像各个通道的特征图经过多层卷积之后才进行融合,本方法采用了通道融合的方法,在每一层卷积结束之后,都对图像各个通道的特征图进行融合,再进行后续训练。在这种情况下,整个网络的鲁棒性得到了进一步增强。

在实际应用中,应该根据数据集图像特征的复杂程度,设置卷积核的个数。

步骤s3、初始化随机噪声,输入生成器中。

步骤s4、在wgan模型中利用通道融合对图像进行卷积操作。

在具体实施方式中,该步骤具体如下:

s41、将图像分解成多个通道;

s42、针对图像的各个通道,利用不同的卷积核进行卷积;

s43、在每一层卷积完成之后,对所有通道的特征图融合,进行后续训练。

步骤s5、将通道融合操作得到的损失函数输入生成器进行后续训练。具体过程如下:

s51、将步骤s4中卷积之后的特征图,输入判别器进行判别;

s52、将通道融合操作得到的损失函数输入生成器进行后续训练。

损失函数的作用是衡量判别器对生成图像判断的能力。损失函数的值越小,说明在当前迭代中,判别器能够有较好的性能辨别生成器的生成图像;反之则说明判别器的性能较差。

损失函数的表达式为:

其中,d(x)表示判别器对图像的判别,pr表示数据集图像的分布,pg表示生成图像的分布,λ为超参数,为梯度。

综上所述,本实施例公开了一种基于wgan模型的图像通道融合方法,通过引入了沃瑟斯坦距离,使得整个网络在训练的过程中有了明确的方向和评判标准。在传统的模型中,图像各个通道的特征图经过多层卷积之后才进行融合,本发明采用了通道融合的方法,在每一层卷积结束之后,都对图像各个通道的特征图进行融合,再进行后续训练。在这种情况下,整个网络的鲁棒性得到了进一步增强。

上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1