基于深层门限卷积神经网络的图像超分辨方法与流程

文档序号:11234841阅读:792来源:国知局
基于深层门限卷积神经网络的图像超分辨方法与流程

本发明属于图像处理技术领域,具体是一种图像超分辨方法,可用于卫星遥感领域,医学领域,交通监控领域以及视频压缩领域等。



背景技术:

图像超分辨是指从一个低分辨图片中学习恢复出高分辨图像的一种技术。相比较于低分辨图像来说,高分辨图像可以表达更多详细的信息,其细节表达能力更强,因此,图像超分辨在很多的领域都有着极大应用,如卫星遥感领域,医学领域,交通监控领域,以及视频压缩领域等。

目前为止,图像的超分辨方法主要有三个主要分类:基于插值,基于重建和基于学习的方法。而基于学习的方法由于引入了先验信息的样例,增加了更有效的约束,提高了重建图像的准确性,所以在近几年来取得了极大的发展,逐渐成为图像超分辨的主流方法,而且其性能也远远超过了另外两种方法。在基于学习的方法中大致又分为两大方向:基于字典学习的方法和基于神经网络的方法。

基于字典学习的方法主要是基于稀疏编码的超分辨算法scsr,它是由yang等人就是从压缩感知理论出发提出的,这种方法的流程是:首先从输入图像中有重合的提取图像块,并拉成一个向量,并进行减均值和归一化的预处理;然后经过低分辨学到的字典进行编码,学到他们的稀疏表示;接着,将稀疏参数对应到高分辨字典中,得到高分辨的图像块;最后,有重合的重构原图,对重合部分取平均,就得到了最终的高分辨图像。该方法的缺点是在应用时学习低分辨字典的稀疏表示的时候用时非常长。

基于神经网络的方法中最典型的就是基于卷积神经网络的图像超分辨方法srcnn,它是由chaodong等人在2015年提出的,方法中构建了一种基于三层卷积神经网络的图像超分辨模型,该模型是一个由低分辨图像到高分辨图像的端到端的映射。在应用过程中,由于不需要另外学习参数,所以用时短;但该方法的弊端是在网络的层数加深时模型的学习效果会下降。



技术实现要素:

本发明的目的在于针对上述现有技术的不足,提出了一种基于深度门限卷积神经网络的图像超分辨方法,以加快图像超分辨的速度,提高图像超分辨的性能。

本发明的技术方案是对原有的srcnn方法进行改进,其一方面,是用门限卷积层取代传统的卷积层;另一方面,将原有三层网络的拓展到了更多层,其具体的实现步骤如下:

1)获取成对的低分辨和高分辨图像数据:

对自然图像先进行下采样处理,然后再用双线性三次插值法,得到与之对应的低分辨图像,最后随机采样,得到大小相同的成对低分辨图像和高分辨图像作为训练数据;

2)对基于卷积神经网络的图像超分辨模型srcnn进行改进,构建一个端到端的深层门限卷积神经网络:

2a)定义一种门限卷积层,并用它来代替srcnn中的卷积层,得到浅层的门限卷积神经网络;

2b)将浅层的门限卷积神经网络拓展到更多层神经网络,且最后一层采用反卷积神经网络重构高分辨图像,得到多层门限卷积神经网络和一层反卷积神经网络级联的深层门限卷积神经网络;

3)用adam优化方法对深层门限卷积神经网络进行训练:

3a)将低分辨图像样本作为深层门限卷积神经网络的输入,计算其输出与高分辨图像样本之间的重构误差其中xhi为训练时第i幅高分辨图像,xli为训练时第i幅低分辨图像,m表示该深层门限卷积神经网络;

3b)将重构误差e作为目标函数,用adam优化方法优化该目标函数,得到一组最优的深层门限卷积神经网络参数;

4)利用深层门限卷积神经网络进行图像超分辨:

4a)对于输入的低分辨图像,通过一次门限卷积后得到低分辨图像所对应的特征图像;

4b)由4a)中得到的低分辨图像的特征图像再经过多层的门限卷积神经网络精确的映射到高分辨图像的特征图像;

4c)由4b)中得到的高分辨图像的特征图像经过一层反卷积网络重构得到我们的高分辨图像。

本发明具有如下优点:

1.本发明由于是用门限卷积层来构建的深层门限卷积神经网络,有效的减少了深层神经网络的梯度消失的问题,解决了深层神经网络的训练问题,可以得到一个优化良好的深层神经网络;

2.本发明由于最终使用的深层门限卷积神经网络是一个优化良好的深层神经网络,特征提取的非常充分,故能更好地描述细节的信息,使图像超分辨效果更好;

3.本发明由于采用的深层门限卷积神经网络是一个端到端的模型,而端到端的的模型在实际应用中具有速度快的优点,所以本发明可以快速的得到高分辨图像。

附图说明

图1是本发明的实现流程图;

图2是本发明中的图像超分辨子流程图;

图3是本发明中的门限卷积层示意图;

图4是本发明与其他方法的训练重构误差比较图;

图5是本发明与其他方法对自然图像的超分辨结果比较图。

具体实施方式

下面将结合附图,对本发明的实施例和效果作进一步详细说明。

参照图1,本发明的实现步骤如下。

步骤一,获取成对的低分辨和高分辨图像数据。

1.1)获取低分辨图像:

对原始图像先进行下采样,再对下采样图像采用双线性三次插值法将图像恢复到原来大小,得到的图片即为低分辨图像;

所述双线性三次插值,通过如下公式进行:

f(i+u,j+v)=abc

其中,u表示横向的插值位置,v表示纵向的插值位置,i为当前像素点的横坐标,j为当前像素点的纵坐标,f(i+u,j+v)表示图像在(i+u,j+v)处插值后的像素值;a是横向因子矩阵,b矩阵是包括像素值f(i,j)在内的周围共计16个点的像素值组成的矩阵,c是纵向因子矩阵,这三个矩阵分别表示如下:

a=[s(1+u)s(u)s(1-u)s(2-u)],s是插值基函数;

c=[s(1+v)s(v)s(1-v)s(2-v)]t

1.2)获取同样大小的低分辨图像和高分辨图像:

由于模型训练时要求输入的图像要具有相同大小,故用随机采样的方式在低分辨图像和高分辨图像相对应的位置采集n个p×p的同样大小的图片块作为低分辨图像训练样本集xl和高分辨图像训练样本集xh;

低分辨图像训练样本集表示为xl={xl1,xl2...xli...xln},xli表示第i个低分辨训练样本图像;高分辨图像训练样本集表示为xh={xh1,xh2...xhi...xhn},xhi表示第i个高分辨训练样本图像,i=1...n。

步骤二,构建深层门限卷积神经网络。

2.1)构建浅层门限卷积神经网络:

(2.1a)参照图3,定义一种门限卷积层:

首先,设门限卷积层的输入为x,对该输入进行两路卷积操作,得到第一路卷积结果f(ω1*x+b1)和第二路卷积的结果g(ω2*x+b2),其中“*”表示卷积操作,ω1为第一路的卷积核,ω2为第二路的卷积核,b1是第一路的偏置,b2是第二路的偏置,f是第一路激活函数,g是第二路激活函数;

然后,将这两路卷积的结果经过一个点乘操作,得到门限卷积的输出g_conv(x),其数学表达形式为:

g_conv(x)=f(ω1*x+b1)·g(ω2*x+b2);

f函数常用的一种是f(x)=x,另一种是具有信息传递的作用;g函数选用sigmoid函数,具有门限控制作用。

(2.1b)用(2.1a)中的门限卷积层代替基于卷积神经网络的图像超分辨模型srcnn中的卷积层conv(x)=f(ω*x+b),得到浅层门限卷积神经网络;

2.2)将浅层门限卷积神经网络拓展到深层门限卷积神经网络:

(2.2a)引入门限卷积层后,减小深层神经网络的梯度衰减:

根据分步求导准则,门限卷积层的输出对门限卷积层的输入的导数可表示为:

根据上式,如果有一路的出现梯度衰减问题,门限卷积层的梯度可以由另一路传导下去,所以门限卷积层可以减小深层神经网络的梯度衰减;

(2.2b)用多个门限卷积层级联,构建多层门限卷积神经网络;

(2.2c)为了更好地重构高分辨图片,在(2.2b)的多层门限卷积神经网络后面再加入一层反卷积网络,最终构建一个多层门限卷积神经网络与一层反卷积网络级联的深层门限卷积神经网络。

步骤三,训练基于图像超分辨应用的深层门限卷积神经网络。

3.1)将低分辨图像样本作为深层门限卷积神经网络的输入,计算其输出与高分辨图像样本之间的重构误差其中xhi为训练时第i幅高分辨图像,xli为训练时第i幅低分辨图像,m表示该深层门限卷积神经网络;

3.2)将重构误差e作为目标函数,用adam优化方法优化该目标函数:

3.2a)初始化深层门限卷积神经网络参数θ,设定优化总次数t;

3.2b)计算出目标函数对每一个参数的梯度gt;

3.2c)根据求得的梯度gt求出如下几个参数:

梯度的一阶距:mt=αmt-1+(1-α)gt,其中α是第一个固定参数,取值为α=0.9;

校正后的梯度一阶距:

梯度的二阶距:其中β是第二个固定参数,取值为β=0.999;

校正后的梯度二阶距:

3.2d)根据3.2c)求出第t次参数θ微调的大小:其中η为设定的初始步长;

(3.2e)将深层门限卷积神经网络参数更新为:θt=θt-1+δθt;

(3.2f)将当前更新次数t与训练总次数t比较:当t<t时,则重复3.2b)-3.2e)操作;当t=t时,训练结束,t次优化得到的参数θt即为最终的深层门限卷积神经网络的参数。

步骤四,利用深层门限卷积神经网络进行图像超分辨。

参照图2,本步骤的过程如下:

(4a)对于输入的低分辨图像,通过一层门限卷积层后得到低分辨图像的特征图像;

(4b)由(4a)中得到的低分辨图像的特征图像再经过多层的门限卷积神经网络精确的映射到高分辨图像的特征图像;

(4c)由(4b)中得到的高分辨图像的特征图像经过一层反卷积网络重构得到高分辨图像,完成对低分辨图像的超分辨。

本发明的效果可通过以下测试进一步说明:

一.测试条件

采用cifar-10数据集作为训练数据对深层门限卷积神经网络训练,用自然图像作为测试数据,用峰值信噪比psnr作为测试时的度量标准。

二.测试内容

测试1,用浅层门限卷积神经网络与srcnn网络在进行加深时,测试其测试样本重构误差的变化,结果如图4所示。从图4可以看出srcnn在模型加深时,测试样本的重构误差没有减小,反而会有一定的增大,而用本发明使用的浅层门限卷积神经网络在网络加深时,测试样本的重构误差会明显减小。

测试2,用本发明对自然图像进行超分辨,结果如图5所示,其中图5(a)原始图片,图5(b)为低分辨图像,图5(c)是srcnn的超分辨结果,峰值信噪比为22.26db,图5(d)为本发明的超分辨结果,峰值信噪比为22.42db,可见,本发明的超分辨效果要优于srcnn模型。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1