基于循环动态卷积神经网络的雷达回波外推模型训练方法与流程

文档序号:16000897发布日期:2018-11-20 19:26阅读:349来源:国知局

本发明属于大气探测中地面气象观测技术领域,尤其涉及基于循环动态卷积神经网络的雷达回波外推模型训练方法。



背景技术:

临近预报主要指0~3小时的高时空分辨率的天气预报,主要预报对象包括强降水、大风、冰雹等灾害性天气。目前,很多预报系统都采用数值预报模式,但是由于数值预报存在预报起转延迟(spin-up),其短时临近预报能力有限。新一代多普勒天气雷达具有很高的灵敏度和分辨率,其数据资料的空间分辨率能够达到200~1000m,时间分辨率能够达到2~15min。此外,多普勒天气雷达还具有合理的工作模式、全面的状态监控和故障警报、先进的实时标校系统和丰富的雷达气象产品算法,能够大大提高短时临近预报的可靠性。如今,新一代多普勒天气雷达已经成为临近预报的最有效工具之一,利用多普勒天气雷达进行临近预报主要基于雷达回波外推技术,即根据当前时刻雷达观测结果,推测雷达回波未来的位置和强度,以实现对强对流系统的跟踪预报。

传统的的雷达回波外推方法是质心跟踪法和基于最大相关系数的交叉相关法(Tracking Radar Echoes by Correlation,TREC),但是传统方法都存在一定的不足,质心跟踪法仅适用于回波较强、范围较小的风暴单体,对于大范围降水的预报不可靠;TREC一般将回波视为线性变化的,而现实情况中回波变化更为复杂,同时此类方法易受矢量场中的无序矢量干扰。此外,现有的方法对雷达资料的利用率低,而历史雷达资料包含当地天气系统变化的重要特征,具有很高的研究价值。

为提高雷达回波外推的时效性,并从大量的历史雷达资料中研究雷达回波的变化规律,将机器学习方法引入雷达回波外推中。卷积神经网络(Convolutional Neural Networks,CNNs)作为深度学习的重要分支,广泛应用于图像处理,模式识别等领域。该网络最大的特点在于采用局部连接、权值共享、下采样的方法,对输入图像的形变、平移和翻转具有较强的适应性。针对雷达回波图像之间存在的强时间相关性,设计基于输入的循环动态卷积神经网络,该网络能够根据输入的雷达回波图动态的变化权值参数,进而预测外推图像。利用历史雷达资料训练循环动态卷积神经网络,使网络更加充分地提取回波特征,学习回波变化规律,对于提高雷达回波外推准确性,优化临近预报效果具有重要意义。



技术实现要素:

发明目的:本发明所要解决的技术问题是针对现有的雷达回波外推方法的外推时效短,对雷达资料利用率不足,提出了一种基于循环动态卷积神经网络(RDCNN)的雷达回波外推方法,实现对雷达回波强度等高平面显示CAPPI(Constant AltitudePlan Position Indicator,CAPPI)图像的外推预测,包括以下步骤:

步骤1,数据预处理:输入训练图像集,对训练图像集中的每一幅图像进行规范化处理,将每一幅图像转化为280×280的灰度图像,得到图像集合,对灰度图像集合进行划分,构造包含TrainsetSize组样本的训练样本集;

步骤2,初始化RDCNN:设计RDCNN结构,构造用于生成概率向量的循环动态子网络子网络RDSN和用于预测未来时刻雷达回波的概率预测层PPL,为离线训练阶段提供RDCNN的初始化模型;

步骤3,初始化RDCNN的训练参数:令网络学习率λ=0.0001,训练阶段每次输入的样本数量BatchSize=10,训练样本集的最大批训练次数当前批训练次数BatchNum=1,网络训练的最大迭代次数IterationMax=40,当前迭代次数IterationNum=1;

步骤4,读取训练样本:采用批训练的方式,每次训练从步骤1获得的训练样本集中读取BatchSize组训练样本,每组训练样本包含5幅图像{x1,x2,x3,x4,y},其中{x1,x2,x3,x4}作为输入图像序列,y为对应的对照标签;

步骤5,前向传播:在RDSN中提取输入图像序列的特征,得到水平概率向量HPV和垂直概率向量VPV;在概率预测层中,将输入图像序列中的最后一幅图像依次与VPV、HPV相卷积,得到前向传播的输出预测图像;

步骤6,反向传播:在PPL中求得概率向量的误差项,再根据概率向量的误差项从后至前逐层计算RDSN中各个网络层的误差项,进而计算各个网络层中误差项对权值参数和偏置参数的梯度,利用得到的梯度更新网络参数;

步骤7,离线训练阶段控制:对离线神经网络训练阶段进行整体控制,分为以下三种情况:

若训练样本集中仍存在未使用过的训练样本,即BatchNum<BatchMax,则返回步骤4继续读取BatchSize组训练样本,进行网络训练;

若训练样本集中不存在未使用过的训练样本,即BatchNum=BatchMax,且当前网络迭代次数小于最大迭代次数,即IterationNum<IterationMax,则令BatchNum=1,返回步骤4继续读取BatchSize组训练样本,进行网络训练;

若训练样本集中不存在未使用过的训练样本,即BatchNum=BatchMax,且网络迭代次数达到最大迭代次数,即IterationNum=IterationMax,则结束RDCNN离线训练阶段,得到收敛的RDCNN模型。

步骤1包括以下步骤:

步骤1-1,采样:输入训练图像集,训练图像集中的图像按时间顺序排列,并且等时间间隔分布,时间间隔为6分钟,共包含NTrain幅图像,通过如下公式确定TrainsetSize:

其中,Mod(NTrain,4)表示NTrain对4取模,表示不大于的最大整数,求得TrainsetSize后,通过采样保留训练图像集中前4×TrainsetSize+1幅图像,采样时通过删除训练图像集中最后的图像使图像数量满足要求;

步骤1-2,规范化图像:对采样得到的图像进行图像变换,归一化操作,将原始分辨率为2000×2000的彩色图像转换成分辨率为280×280的灰度图像;

步骤1-3,构造训练样本集:利用步骤1-2获得的灰度图像构造训练样本集,将灰度图像集中每四个相邻的图像,即第{4N+1,4N+2,4N+3,4N+4}幅图像作为一组输入序列,第[4×(N+1)+1]幅图像经过裁剪,保留中央分辨率为240×240的部分作为对应样本的对照标签,对于第N组样本其构造方式如下:

上式中,G4N+1表示灰度图像集中的第4N+1幅图像,N为正整数,并有N∈[0,TrainsetSize-1],Crop(·)表示裁剪操作,裁剪后保留原图像中央大小为240×240的部分,最终得到包含TrainsetSize组训练样本的训练样本集。

步骤1-2包括以下步骤:

步骤1-2-1,图像转化:将步骤1-1采样得到的图像转化为灰度图像,通过裁剪保留原始图像中央分辨率为560×560的部分,将裁剪后的图像分辨率压缩为280×280,得到分辨率为280×280的灰度图;

步骤1-2-2,数据归一化:将步骤1-2-1中获得的灰度图中的每一个像素点的值从[0~255]映射到[0~1]。

步骤2包括以下步骤:

步骤2-1,构造循环动态子网络RDSN:

子网络由10个网络层构成,从前至后依次为卷积层C1、下采样层S1、隐含层H1、卷积层C2、下采样层S2、隐含层H2、卷积层C3、下采样层S3、隐含层H3、卷积层C4、下采样层S4、隐含层H4、卷积层C5、隐含层H5、以及分类器层F1;

步骤2-2,构造概率预测层PPL:

概率预测层中构造动态卷积层DC1和动态卷积层DC2,将RDSN输出的垂直概率向量VPV作为动态卷积层DC1的卷积核,水平概率向量HPV作为动态卷积层DC2的卷积核。

步骤2-1包括以下步骤:

步骤2-1-1,构造卷积层:对于卷积层lC,lC∈{C1,C2,C3,C4,C5},确定以下内容:卷积层的输出特征图数量卷积核以及偏置参数对于卷积核,需要确定卷积核的宽度卷积核的数量该值为卷积层输入与输出特征图数量的乘积,并根据Xavier初始化方法构造卷积核;对于偏置参数,其数量与该层的输出特征图数量相同;lC层的输出特征图宽度为的值由卷积层lC的输入特征图分辨率和卷积核的宽度共同决定,即表示卷积层lC的上一层卷积层的输出特征图宽度;

对于卷积层C1,令C1层的输出特征图数量OutputMapsC1=12,C1层输出特征图的宽度OutputSizeC1=272,C1层卷积核宽度KernelSizeC1=9,C1层偏置参数biasC1均初始化为零,C1层的卷积核kC1的数量KernelNumberC1=48,卷积核中每一个参数的初始值为rand(·)用于生成随机数;

对于卷积层C2,令C2层输出特征图数量OutputMapsC2=32,C2层输出特征图的宽度OutputSizeC2=128,C2层卷积核宽度KernelSizeC2=9,C2层偏置参数均初始化为零,C2层的卷积核kC2的数量KernelNumberC2=384,卷积核中每一个参数的初始值为

对于卷积层C3,令C3层输出特征图数量OutputMapsC3=32,C3层输出特征图的宽度OutputSizeC3=56,C3层卷积核宽度KernelSizeC3=9,C3层偏置参数均初始化为零,C3层的卷积核kC3的数量KernelNumberC3=1024,卷积核中每一个参数的初始值为

对于卷积层C4,令C4层输出特征图数量OutputMapsC4=32,C4层输出特征图的宽度OutputSizeC4=20,C4层卷积核宽度KernelSizeC4=9,C4层偏置参数均初始化为零,C4层的卷积核kC4的数量KernelNumberC4=1024,卷积核中每一个参数的初始值为

对于卷积层C5,令C5层输出特征图数量OutputMapsC5=32,C5层输出特征图的宽度OutputSizeC5=4,C5层卷积核宽度KernelSizeC5=7,C5层偏置参数均初始化为零,C5层的卷积核kC5的数量KernelNumberC5=1024,卷积核中每一个参数的初始值为

步骤2-1-2,构造隐含层:对于隐含层lH,lH∈{H1,H2,H3,H4,H5},确定以下内容:隐含层的输出特征图数量卷积核以及偏置参数对于卷积核,需要确定卷积核的宽度卷积核的数量其值为隐含层输入与输出特征图数量的乘积,并根据Xavier初始化方法构造卷积核;对于偏置参数,其数量与隐含层的输出特征图数量相同;lH层的输出特征图宽度为与对应卷积层输入特征图的宽度相一致;

对于隐含层H1,令H1层的输出特征图数量OutputMapsH1=4,H1层输出特征图的宽度OutputSizeH1=280,H1层卷积核宽度KernelSizeH1=9,H1层偏置参数biasH1初始化为零,H1层的卷积核kH1的数量KernelNumberH1=48,卷积核中每一个参数的初始值rand(·)用于生成随机数;

对于隐含层H2,令H2层输出特征图数量OutputMapsH2=8,H2层输出特征图的宽度OutputSizeH2=136,H2层卷积核宽度KernelSizeH2=9,H2层偏置参数均初始化为零,H2层的卷积核kH2的数量KernelNumberH2=256,卷积核中每一个参数的初始值为

对于隐含层H3,令H3层输出特征图数量OutputMapsH3=8,H3层输出特征图的宽度OutputSizeH3=64,H3层卷积核宽度KernelSizeH3=9,H3层偏置参数均初始化为零,H3层的卷积核kH3的数量KernelNumberH3=256,卷积核中每一个参数的初始值为

对于隐含层H4,令H4层输出特征图数量OutputMapsH4=8,H4层输出特征图的宽度OutputSizeH4=28,H4层卷积核宽度KernelSizeH4=9,H4层偏置参数均初始化为零,H4层的卷积核kH4的数量KernelNumberH4=256,卷积核中每一个参数的初始值为

对于隐含层H5,令H5层输出特征图数量OutputMapsH5=8,H5层输出特征图的宽度OutputSizeH5=10,H5层偏置参数初始化为零,H5层包含256个权值参数kH5,每一个权值参数的初始值为

步骤2-1-3,构造下采样层:下采样层中不包含需要训练的参数,将下采样层S1、S2、S3和S4的采样核均初始化为对于下采样层lS,lS∈{S1,S2,S3,S4},其输出特征图数量与其上一层的卷积层的输出特征图数量保持一致,输出特征图宽度为其上一层的卷积层的输出特征图宽度的1/2,公式表达如下:

步骤2-1-4,构造分类器层:分类器层由一个全连接层F1构成,F1层的权值参数为水平权值参数矩阵WH和垂直权值参数矩阵WV,大小均为41×512,令权值参数矩阵中的每一个参数的初始值为偏置参数为水平偏置参数BH和垂直偏置参数BV,均初始化为41×1的一维零向量。

步骤5包括以下步骤:

步骤5-1,RDSN计算概率向量:在子网络中通过卷积层和下采样层的交替处理提取输入的图像序列特征,在分类器层中通过Softmax函数处理,得到水平概率向量HPV和垂直概率向量VPV;

步骤5-2,PPL输出预测图像:步骤5-1得到的HPV和VPV作为概率预测层的卷积核,将输入图像序列中的最后一幅图像依次与VPV、HPV相卷积,得到前向传播的输出预测图像。

步骤5-1包括以下步骤:

步骤5-1-1,判断网络层类型:用l表示当前RDSN中的网络层,l的取值依次为{H1,C1,S1,H2,C2,S2,H3,C3,S3,H4,C4,S4,H5,C5,F1},其初始值为H1;判断网络层l的类型,若l∈{H1,H2,H3,H4,H5},则l为隐含层,执行步骤5-1-2;若l∈{C1,C2,C3,C4,C5},则l为卷积层,执行步骤1-5-1-3;若l∈{S1,S2,S3,S4},则l为下采样层,执行步骤5-1-4;若l=F1,则l为分类器层,执行步骤5-1-5;训练过程中将本次训练卷积层的输出特征图记为aC',其中C∈{C1,C2,C3,C4,C5},aC'的初始值为零矩阵;

步骤5-1-2,处理隐含层:此时有l=lH,lH∈{H1,H2,H3,H4,H5},分为两种情况:

当lH∈{H1,H2,H3,H4}时,首先计算lH层的第j个输出特征图若lH=H1,则C=C1,通过零像素填充将aC'中对应的特征图宽度拓展至再将其与该层的对应卷积核相卷积,将卷积结果求和,求和结果加上lH层的第j个偏置参数经过ReLU激活函数处理,得到lH层的第j个输出特征图计算公式如下所示:

上式中,Expand_Zero(·)表示零扩充函数,为lH层的第i个输入特征图与第j个输出特征图相对应的卷积核,为lH层的第j个偏置,nh为当前隐含层的输入特征图个数,表示lH层的第i个输入特征图,的取值由输入特征图的宽度和卷积核的大小决定,并有

当lH=H5时,首先计算H5层的第j个输出特征图通过零像素填充将aC5'的特征图分辨率拓展至10×10,再将其与该层的对应权值参数相乘,将计算结果求和,求和结果加上H5层第j个偏置参数经过ReLU激活函数处理,得到计算公式如下所示:

上式中,为H5层的第i个输入特征图与第j个输出特征图相对应的权值参数;

依次计算lH层所有的输出特征图,得到lH层的输出特征图将l更新为l+1,并返回步骤5-1-1判断网络类型,进行下一个网络层的操作;

步骤5-1-3,处理卷积层:此时有l=lC,lC∈{C1,C2,C3,C4,C5},首先计算lC层的第j个输出特征图将lC层的输入特征图分别与该层的对应卷积核相卷积,将卷积结果求和,求和结果加上lC层的第j个偏置参数再经过ReLU激活函数处理,得到计算公式如下所示:

上式中,为lC层的第i个输入特征图与第j个输出特征图相对应的卷积核,nc为卷积层的输入特征图个数,表示lC层的第i个输入特征图,同时也是lC-1层的第i个输出特征图,*表示矩阵卷积,若lC=C1,则lC-1层为输入层;

依次计算lC层所有的输出特征图,得到lC层的输出特征图用的值更新aC'(lC=C,例如当lC=C1时,则用aC1更新aC1'),将l更新为l+1,为并返回步骤1-5-1-1判断网络类型,进行下一个网络层的操作;

步骤5-1-3,处理下采样层:此时有l=lS,lS∈{S1,S2,S3,S4},将步骤5-1-2得到的卷积层的输出特征图分别与相卷积,再以步长为2进行采样,采样得到lS层的输出特征图计算公式如下所示:

上式中,Sample(·)表示步长为2的采样处理,lS-1表示当前下采样层的前一卷积层,表示lS层的输出特征图中的第j个输出特征图,得到lS层的输出特征图后,将l更新为l+1,并返回步骤5-1-1判断网络类型,进行下一个网络层的操作;

步骤5-1-4,计算F1层概率向量:此时有l=F1,通过矩阵变换,将C5的32幅分辨率为4×4的输出特征图以列顺序展开,得到分辨率为512×1的F1层的输出特征向量aF1,分别计算水平权值参数矩阵WH与aF1的外积、垂直权值参数矩阵WV与aF1的外积,将计算结果分别与水平偏置参数BH、垂直偏置参数BV求和,经Softmax函数处理后得到水平概率向量HPV和垂直概率向量VPV,具体计算公式如下:

将其垂直概率向量VPV转置,得到最终的垂直概率向量。

步骤5-2包括以下步骤:

步骤5-2-1,预测DC1层垂直方向:将输入层的最后一幅输入图像与垂直概率向量VPV相卷积,得到分辨率为240×280的DC1层输出特征图aDC1

步骤5-2-2,预测DC2层垂直方向:将DC1层输出特征图aDC1与水平概率向量HPV相卷积,得到前向传播的输出预测图像,其分辨率为240×240。

步骤6包括以下步骤:

步骤6-1,计算PPL误差项:将步骤5-2-2获得的预测图像与输入的训练样本中的对照标签求差,计算DC2层、DC1层的误差项,最终求得水平概率向量的误差项δHPV和垂直概率向量的误差项δVPV

步骤6-2,计算RDSN误差项:根据水平概率向量的误差项δHPV和垂直概率向量的误差项δVPV,从后至前依次计算分类层F1,卷积层(C5,C4,C3,C2,C1)隐含层(H5,H4,H3,H2,H1)和下采样层(S4,S3,S2,S1)的误差项,求得的任一层误差项矩阵的分辨率与该层的输出特征图的分辨率相一致;

步骤6-3,计算梯度:根据步骤6-2获得的误差项计算RDSN中各个网络层的误差项对该层权值参数和偏置参数的梯度值;

步骤6-4,更新参数:将步骤6-3获得的各网络层的权值参数和偏置参数的梯度值乘上RDCNN的学习率,得到各网络层权值参数和偏置参数的更新项,将原权值参数和偏置参数分别与该更新项求差,得到更新后的权值参数和偏置参数。

步骤6-1包括以下步骤:

步骤6-1-1,计算动态卷积层DC2误差项:将步骤5-2-2获得的预测图像与该组样本的对照标签求差,得到大小为240×240的误差项矩阵δDC2

步骤6-1-2,计算动态卷积层DC1误差项:通过零填充将DC2层的误差项矩阵δDC2拓展为240×320,将水平概率向量旋转180度,将拓展后的误差项矩阵与翻转后的水平概率向量相卷积,得到DC1层的误差项矩阵δDC1,其大小为240×280,公式如下所示:

δDC1=Expand_Zero(δDC2)*rot180(HPV),

上式中,rot180(·)表示角度为180°的旋转函数,将2×2的矩阵零扩充为4×4的矩阵,零扩充后的矩阵,中央分辨率为2×2的区域与原矩阵相一致,其余位置用零像素填充;

步骤6-1-3,计算概率向量误差项:计算水平概率向量HPV的误差项,将DC1层的输出特征图与误差项矩阵δDC2相卷积,卷积后得到1×41的行向量,该向量为HPV的误差项δHPV,公式如下:

δHPV=aDC1DC2

计算垂直概率向量VPV的误差项,将输入层的输入特征图与误差项矩阵δDC1相卷积,卷积后得到41×1的列向量,该向量为VPV的误差项δVPV,公式如下:

上式中,为训练样本的输入图像序列中的最后一幅图像;

步骤6-2包括以下步骤:

步骤6-2-1,计算分类器层F1误差项:将步骤6-1-3获得的概率向量的误差项δVPV和δHPV分别与F1层的垂直权值参数矩阵WV和水平权值参数矩阵WH进行矩阵相乘,再将矩阵的外积求和并取平均值,得到F1层的误差项δF1,公式如下:

上式中,×表示矩阵外积,(·)T代表矩阵的转置,得到的δF1的大小为512×1;

步骤6-2-2,计算卷积层C5误差项:通过矩阵变换,将步骤6-2-1中获得的F1层的误差项δF1变换为32个分辨率为4×4的矩阵得到C5层的误差项δC5,表示变换后的第32个分辨率为4×4的矩阵;

步骤6-2-3,判断网络层类型:用l表示当前所处的RDSN中的网络层,l的取值依次为{H5,S4,C4,H4,S3,C3,H3,S2,C2,H2,S1,C1,H1},l初始值为H5,判断网络层l的类型,若l∈{H5,H4,H3,H2,H1},则l为隐含层,执行步骤6-2-4;若l∈{S4,S3,S2,S1},则l为下采样层,执行步骤6-2-5,若l∈{C4,C3,C2,C1},则l为卷积层,执行步骤6-2-6;

步骤6-2-4,计算隐含层误差项:此时l=lH,lH∈{H5,H4,H3,H2,H1},计算lH层的第i个误差项矩阵通过零填充分别将l+1层卷积层的各个误差项矩阵δl+1拓展至宽度为ExpandSizel+1

ExpandSizel+1=OutputSizel+1+2·(KernelSizel+1-1),

再将对应的卷积核旋转180度,然后将拓展后的矩阵与翻转后的卷积核相卷积,并将卷积结果求和,得到lH层的第i个误差项矩阵公式如下所示:

上式中,nc表示l+1层卷积层的误差项个数,其数值与l+1层的输出特征图数量相同,并有nc=OutputMapsl+1

依次计算所有的误差项矩阵,得到lH层的输出特征图将l更新为l-1,并返回步骤6-2-3判断网络类型,计算上一个网络层的误差项;

步骤6-2-5,计算下采样层误差项:此时l=lS,lS∈{S4,S3,S2,S1},计算lS层的第i个误差项矩阵通过零填充分别将l+2层卷积层的各个误差项矩阵δl+2拓展至宽度为ExpandSizel+2

ExpandSizel+2=OutputSizel+2+2·(KernelSizel+2-1),

再将对应的卷积核旋转180度,然后将拓展后的矩阵与翻转后的卷积核相卷积,并将卷积结果求和,得到lS层的第i个误差项矩阵公式如下所示:

上式中,nc表示l+2层卷积层的误差项个数,其数值与l+2层的输出特征图数量相同,并有nc=OutputMapsl+2

依次计算所有的误差项矩阵,得到lS层的输出特征图δlS,将l更新为l-1,并返回步骤6-2-3判断网络类型,计算上一个网络层的误差项;

步骤6-2-6,计算卷积层误差项:此时有l=lC,lC∈{C4,C3,C2,C1},由于步骤6-2-3中l的初始值为H5,因此不会出现lC=C5的情况,对于lC层的第i个误差项矩阵先对l+1层下采样层中的对应的第i个误差项矩阵进行上采样,上采样时将中每个元素的误差项值平均分至采样区域中,得到分辨率为OutputSizelC×OutputSizelC的上采样矩阵,再计算激活函数在lC层对应特征图处的导数与求得的上采样矩阵的内积,得到lC层的第i个误差项矩阵公式如下所示:

上式中,·表示矩阵内积,ReLU'(·)表示ReLU激活函数的导数,其形式如下:

UpSamlpe(·)表示上采样函数,上采样后原图像中的每一个像素对应一个上采样区域,原像素值平均分配至采样区域中的每一个像素点中,依次计算所有的误差项矩阵,得到lC层的输出特征图

步骤6-2-7,此时l层为卷积层,即l=lC,之后分为两种情况:

若l≠C1,则将l更新为l-1,并返回步骤6-2-3判断网络类型,计算上一个网络层的误差项;

若l=C1,则步骤6-2子网络误差项计算结束;

步骤6-3包括以下步骤:

步骤6-3-1,计算卷积层误差项对卷积核的梯度:用lC表示当前处理的卷积层,lC∈{C1,C2,C3,C4,C5},从C1层开始逐层计算各卷积层误差项对卷积核的梯度,将卷积层的第i个输入特征图与第lC层的第j个误差项矩阵相卷积,卷积结果为对应卷积核的梯度值公式如下:

上式中,与分别表示第lC层的输出特征图个数与第lC-1层的输出特征图个数;

步骤6-3-2,计算各卷积层误差项对偏置的梯度:用lC表示当前处理的卷积层,lC∈{C1,C2,C3,C4,C5},从C1层开始逐层计算各卷积层误差项对偏置的梯度,将lC层的第j个误差项矩阵中的所有元素进行求和,得到该层第j个偏置的梯度值公式如下所示:

上式中,Sum(·)表示对矩阵的所有元素进行求和;

步骤6-3-3,计算隐含层误差项对卷积核的梯度:用lH表示当前处理的隐含层,lH∈{H1,H2,H3,H4,H5},从H1层开始逐层计算各卷积层误差项对卷积核的梯度,首先对隐含层误差项进行裁剪,保留中央宽度为的部分,记为当lH=H5时,保留H5层误差项中央宽度为4×4的部分,然后将隐含层的第i个输入特征图与的第j个分量相卷积,卷积结果为对应卷积核的梯度值公式如下:

上式中,与分别表示第lH层的输出特征图个数与第lH-1层的输出特征图个数;

步骤6-3-4,计算各隐含层误差项对偏置的梯度:用lH表示当前处理的隐含层,lH∈{H1,H2,H3,H4,H5},从H1层开始逐层计算各卷积层误差项对偏置的梯度,将步骤6-3-3中得到的第j个分量中的所有元素进行求和,得到该层第j个偏置的梯度值公式如下所示:

上式中,Sum(·)表示对矩阵的所有元素进行求和;

步骤6-3-5,计算F1层误差项对权值参数的梯度:分别计算水平概率向量与垂直概率向量的误差项δHPV、δVPV与F1层误差项δF1的内积,计算结果为F1层误差项对权值参数WH、WV的梯度值,公式如下:

▽WH=(δHPV)T×(δF1)T

▽WV=δVPV×(δF1)T

上式中,▽WH为误差项对水平权值参数的梯度值,▽WV为误差项对垂直权值参数的梯度值;

步骤6-3-6,计算F1层误差项对偏置参数的梯度:将水平概率向量与垂直概率向量的误差项δHPV、δVPV分别作为F1层误差项对水平偏置参数BH和垂直偏置参数BV的梯度值,公式如下:

▽BH=(δHPV)T

▽BV=δVPV

上式中,▽BH为误差项对水平偏置参数的梯度值,▽BV为误差项对垂直偏置参数的梯度值;

步骤6-4包括以下步骤:

步骤6-4-1,更新各卷积层权值参数:将步骤6-3-1获得的各卷积层误差项对卷积核的梯度乘上RDCNN的学习率,得到卷积核的修正项,再将原卷积核与该修正项求差,得到更新的卷积核公式如下:

步骤6-4-2,更新各卷积层偏置参数:将步骤6-3-2获得的各卷积层误差项对偏置的梯度乘上RDCNN的学习率,得到偏置参数的修正项,再将原偏置项与该修正项求差,得到更新的偏置项公式如下:

步骤6-4-3,更新各隐含层权值参数:将步骤6-3-3获得的各隐含层误差项对卷积核的梯度乘上RDCNN的学习率,得到卷积核的修正项,再将原卷积核与该修正项求差,得到更新的卷积核公式如下:

步骤6-4-4,更新各隐含层偏置参数:将步骤6-3-4获得的各隐含层误差项对偏置的梯度乘上RDCNN的学习率,得到偏置参数的修正项,再将原偏置项与该修正项求差,得到更新的偏置项公式如下:

步骤6-4-5,更新F1层权值参数:将步骤6-3-5获得的F1层误差项对权值参数WH和WV的梯度值乘上RDCNN的学习率,得到权值参数的修正项,再将原权值参数WH和WV分别与求得的修正项求差,得到更新的WH和WV,公式如下:

WH=WH-λ▽WH,

WV=WV-λ▽WV;

步骤6-4-6,更新F1层偏置参数:将步骤6-3-6获得的F1层误差项对偏置参数BH和BV的梯度值乘上RDCNN的学习率,得到偏置参数的修正项,再将原偏置参数BH和BV分别与求得的修正项求差,得到更新的BH和BV,公式如下:

BH=BH-λ▽BH,

BV=BV-λ▽BV。

有益效果:本发明采用卷积神经网络(CNN)图像处理技术实现雷达回波外推,提出了一种循环动态卷积神经网络(RDCNN)结构,该网络由循环动态子网络(RDSN)和概率预测层(PPL)组成,具有动态特性和循环特性。PPL的卷积核由RDSN计算得出,与输入的雷达回波图像存在映射关系,因此该卷积核在RDCNN在线测试阶段仍然能够根据输入的不同而变化,使网络具有动态特性;RDSN在传统的CNN模型的基础上增加了隐含层,将隐含层和卷积层构成循环结构,借助循环结构能够递归地保留历史训练信息,使网络具有循环特性。利用大量雷达回波图像数据训练RDCNN,使网络收敛,训练好的网络能够较好地实现雷达回波外推。

附图说明

下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述或其他方面的优点将会变得更加清楚。

图1为本发明流程图。

图2为循环动态卷积神经网络初始化模型结构图。

图3为循环动态子网络构造图。

图4为概率预测层构造图。

图5为矩阵零扩充示意图。

图6为对2×2的矩阵进行上采样的过程示意图。

具体实施方式

下面结合附图及实施例对本发明做进一步说明。

如图1所示,本发明公开了基于循环动态卷积神经网络的雷达回波外推模型训练方法,包括以下步骤:

步骤1,循环动态卷积神经网络RDCNN离线训练:输入训练图像集,对训练图像集进行数据预处理,得到训练样本集,设计RDCNN结构,并初始化网络训练参数;利用训练样本集训练RDCNN,输入的有序图像序列经过前向传播得到一幅预测图像,计算预测图像和对照标签之间的误差,通过反向传播更新网络的权值参数和偏置参数,重复此过程直到预测结果达到训练结束条件,得到收敛的RDCNN模型;

步骤2,RDCNN在线预测:输入测试图像集,对测试图像集进行数据预处理,得到测试样本集,然后将测试样本集输入步骤1中获得的RDCNN模型中,经过网络前向传播计算概率向量,并将输入图像序列中的最后一幅雷达回波图像与得到的概率向量相卷积,得到预测的雷达回波外推图像。

步骤1包括以下步骤:

步骤1-1,数据预处理:输入训练图像集,对训练图像集中的每一幅图像进行规范化处理,将每一幅图像转化为280×280的灰度图像,得到图像集合,对灰度图像集合进行划分,构造包含TrainsetSize组样本的训练样本集;

步骤1-2,初始化RDCNN:设计RDCNN结构,构造用于生成概率向量的循环动态子网络子网络(Recurrent Dynamic Sub-network,RDSN)和用于预测未来时刻雷达回波的概率预测层(Probability Prediction Layer,PPL),为离线训练阶段提供RDCNN的初始化模型,如图2所示,为循环动态卷积神经网络初始化模型结构图;

步骤1-3,初始化RDCNN的训练参数:令网络学习率λ=0.0001,训练阶段每次输入的样本数量BatchSize=10,训练样本集的最大批训练次数当前批训练次数BatchNum=1,网络训练的最大迭代次数IterationMax=40,当前迭代次数IterationNum=1;

步骤1-4,读取训练样本:采用批训练的方式,每次训练从步骤1-1获得的训练样本集中读取BatchSize组训练样本,每组训练样本为{x1,x2,x3,x4,y},共包含5幅图像,其中{x1,x2,x3,x4}作为输入图像序列,y为对应的对照标签;

步骤1-5,前向传播:在RDSN中提取输入图像序列的特征,得到水平概率向量HPV和垂直概率向量VPV;在概率预测层中,将输入图像序列中的最后一幅图像依次与VPV、HPV相卷积,得到前向传播的输出预测图像;

步骤1-6,反向传播:在PPL中求得概率向量的误差项,再根据概率向量的误差项从后至前逐层计算RDSN中各个网络层的误差项,进而计算各个网络层中误差项对权值参数和偏置参数的梯度,利用得到的梯度更新网络参数;

步骤1-7,离线训练阶段控制:对离线神经网络训练阶段进行整体控制,分为以下三种情况:

若训练样本集中仍存在未使用过的训练样本,即BatchNum<BatchMax,则返回步骤1-4继续读取BatchSize组训练样本,进行网络训练;

若训练样本集中不存在未使用过的训练样本,即BatchNum=BatchMax,且当前网络迭代次数小于最大迭代次数,即IterationNum<IterationMax,则令BatchNum=1,返回步骤1-4继续读取BatchSize组训练样本,进行网络训练;

若训练样本集中不存在未使用过的训练样本,即BatchNum=BatchMax,且网络迭代次数达到最大迭代次数,即IterationNum=IterationMax,则结束RDCNN离线训练阶段,得到收敛的RDCNN模型。

步骤1-1数据预处理包括以下步骤:

步骤1-1-1,采样:训练图像集中的图像按时间顺序排列,并且等时间间隔分布,时间间隔为6分钟,共包含NTrain幅图像,通过如下公式确定TrainsetSize:

上式中,Mod(NTrain,4)表示NTrain对4取模,表示不大于的最大整数,求得TrainsetSize后,通过采样保留训练图像集中前4×TrainsetSize+1幅图像,采样时通过删除训练图像集中最后的图像使图像数量满足要求;

步骤1-1-2,规范化图像:对采样得到的图像进行图像变换,归一化操作,将原始分辨率为2000×2000的彩色图像转换成分辨率为280×280的灰度图像;

步骤1-1-3,构造训练样本集:利用步骤1-1-2获得的灰度图像构造训练样本集,将灰度图像集中每四个相邻的图像,即第{4N+1,4N+2,4N+3,4N+4}幅图像作为一组输入序列,第[4×(N+1)+1]幅图像经过裁剪,保留中央分辨率为240×240的部分作为对应样本的对照标签,对于第N组样本其构造方式如下:

上式中,G4N+1表示灰度图像集中的第4N+1幅图像,N为正整数,并有N∈[0,TrainsetSize-1],Crop(·)表示裁剪操作,裁剪后保留原图像中央大小为240×240的部分,最终得到包含TrainsetSize组训练样本的训练样本集;

其中,步骤1-1-2包括以下步骤:

步骤1-1-2-1,图像转化:将步骤1-1-1采样得到的图像转化为灰度图像,通过裁剪保留原始图像中央分辨率为560×560的部分,将裁剪后的图像分辨率压缩为280×280,得到分辨率为280×280的灰度图;

步骤1-1-2-2,数据归一化:将步骤1-1-2-1中获得的灰度图中的每一个像素点的值从[0~255]映射到[0~1]。

步骤1-2包括以下步骤:

步骤1-2-1,构造循环动态子网络RDSN,如图3所示,为循环动态子网络构造图:

子网络由10个网络层构成,从前至后依次为卷积层C1、下采样层S1、隐含层H1、卷积层C2、下采样层S2、隐含层H2、卷积层C3、下采样层S3、隐含层H3、卷积层C4、下采样层S4、隐含层H4、卷积层C5、隐含层H5、以及分类器层F1;

步骤1-2-2,构造概率预测层PPL,如图4所示,为概率预测层构造图:

概率预测层中构造动态卷积层DC1和动态卷积层DC2,将RDSN输出的垂直概率向量VPV作为动态卷积层DC1的卷积核,水平概率向量HPV作为动态卷积层DC2的卷积核;

其中,步骤1-2-1包括以下步骤:

步骤1-2-1-1,构造卷积层:对于卷积层lC,lC∈{C1,C2,C3,C4,C5},确定以下内容:卷积层的输出特征图数量卷积核以及偏置参数对于卷积核,需要确定卷积核的宽度卷积核的数量该值为卷积层输入与输出特征图数量的乘积,并根据Xavier初始化方法构造卷积核;对于偏置参数,其数量与该层的输出特征图数量相同;lC层的输出特征图宽度为的值由卷积层lC的输入特征图分辨率和卷积核的宽度共同决定,即表示卷积层lC的上一层卷积层的输出特征图宽度;

对于卷积层C1,令C1层的输出特征图数量OutputMapsC1=12,C1层输出特征图的宽度OutputSizeC1=272,C1层卷积核宽度KernelSizeC1=9,C1层偏置参数biasC1均初始化为零,C1层的卷积核kC1的数量KernelNumberC1=48,卷积核中每一个参数的初始值为rand(·)用于生成随机数;

对于卷积层C2,令C2层输出特征图数量OutputMapsC2=32,C2层输出特征图的宽度OutputSizeC2=128,C2层卷积核宽度KernelSizeC2=9,C2层偏置参数均初始化为零,C2层的卷积核kC2的数量KernelNumberC2=384,卷积核中每一个参数的初始值为

对于卷积层C3,令C3层输出特征图数量OutputMapsC3=32,C3层输出特征图的宽度OutputSizeC3=56,C3层卷积核宽度KernelSizeC3=9,C3层偏置参数均初始化为零,C3层的卷积核kC3的数量KernelNumberC3=1024,卷积核中每一个参数的初始值为

对于卷积层C4,令C4层输出特征图数量OutputMapsC4=32,C4层输出特征图的宽度OutputSizeC4=20,C4层卷积核宽度KernelSizeC4=9,C4层偏置参数均初始化为零,C4层的卷积核kC4的数量KernelNumberC4=1024,卷积核中每一个参数的初始值为

对于卷积层C5,令C5层输出特征图数量OutputMapsC5=32,C5层输出特征图的宽度OutputSizeC5=4,C5层卷积核宽度KernelSizeC5=7,C5层偏置参数均初始化为零,C5层的卷积核kC5的数量KernelNumberC5=1024,卷积核中每一个参数的初始值为

步骤1-2-1-2,构造隐含层:对于隐含层lH,lH∈{H1,H2,H3,H4,H5},确定以下内容:隐含层的输出特征图数量卷积核以及偏置参数对于卷积核,需要确定卷积核的宽度卷积核的数量其值为隐含层输入与输出特征图数量的乘积,并根据Xavier初始化方法构造卷积核;对于偏置参数,其数量与隐含层的输出特征图数量相同;lH层的输出特征图宽度为与对应卷积层输入特征图的宽度相一致;

对于隐含层H1,令H1层的输出特征图数量OutputMapsH1=4,H1层输出特征图的宽度OutputSizeH1=280,H1层卷积核宽度KernelSizeH1=9,H1层偏置参数biasH1初始化为零,H1层的卷积核kH1的数量KernelNumberH1=48,卷积核中每一个参数的初始值为rand(·)用于生成随机数;

对于隐含层H2,令H2层输出特征图数量OutputMapsH2=8,H2层输出特征图的宽度OutputSizeH2=136,H2层卷积核宽度KernelSizeH2=9,H2层偏置参数均初始化为零,H2层的卷积核kH2的数量KernelNumberH2=256,卷积核中每一个参数的初始值为

对于隐含层H3,令H3层输出特征图数量OutputMapsH3=8,H3层输出特征图的宽度OutputSizeH3=64,H3层卷积核宽度KernelSizeH3=9,H3层偏置参数均初始化为零,H3层的卷积核kH3的数量KernelNumberH3=256,卷积核中每一个参数的初始值为

对于隐含层H4,令H4层输出特征图数量OutputMapsH4=8,H4层输出特征图的宽度OutputSizeH4=28,H4层卷积核宽度KernelSizeH4=9,H4层偏置参数均初始化为零,H4层的卷积核kH4的数量KernelNumberH4=256,卷积核中每一个参数的初始值为

对于隐含层H5,令H5层输出特征图数量OutputMapsH5=8,H5层输出特征图的宽度OutputSizeH5=10,H5层偏置参数初始化为零。H5层包含256个权值参数kH5,每一个权值参数的初始值为

步骤1-2-1-3,构造下采样层:下采样层中不包含需要训练的参数,将下采样层S1、S2、S3和S4的采样核均初始化为对于下采样层lS,lS∈{S1,S2,S3,S4},其输出特征图数量与其上一层的卷积层的输出特征图数量保持一致,输出特征图宽度为其上一层的卷积层的输出特征图宽度的1/2,公式表达如下:

步骤1-2-1-4,构造分类器层:分类器层由一个全连接层F1构成,F1层的权值参数为水平权值参数矩阵WH和垂直权值参数矩阵WV,大小均为41×512,令权值参数矩阵中的每一个参数的初始值为偏置参数为水平偏置参数BH和垂直偏置参数BV,均初始化为41×1的一维零向量。

步骤1-5包括以下步骤:

步骤1-5-1,RDSN计算概率向量:在子网络中通过卷积层和下采样层的交替处理提取输入的图像序列特征,在分类器层中通过Softmax函数处理,得到水平概率向量HPV和垂直概率向量VPV;

步骤1-5-2,PPL输出预测图像:步骤1-5-1得到的HPV和VPV作为概率预测层的卷积核,将输入图像序列中的最后一幅图像依次与VPV、HPV相卷积,得到前向传播的输出预测图像。

步骤1-5-1包括以下步骤:

步骤1-5-1-1,判断网络层类型:用l表示当前RDSN中的网络层,l的取值依次为{H1,C1,S1,H2,C2,S2,H3,C3,S3,H4,C4,S4,H5,C5,F1},其初始值为H1。判断网络层l的类型,若l∈{H1,H2,H3,H4,H5},则l为隐含层,执行步骤1-5-1-2;若l∈{C1,C2,C3,C4,C5},则l为卷积层,执行步骤1-5-1-3;若l∈{S1,S2,S3,S4},则l为下采样层,执行步骤1-5-1-4;若l=F1,则l为分类器层,执行步骤1-5-1-5。训练过程中将本次训练卷积层的输出特征图记为aC',其中C∈{C1,C2,C3,C4,C5},aC'的初始值为零矩阵;

步骤1-5-1-2,处理隐含层:此时有l=lH,lH∈{H1,H2,H3,H4,H5},此时分为两种情况:

当lH∈{H1,H2,H3,H4}时,首先计算lH层的第j个输出特征图通过零像素填充将aC'中对应的特征图(若lH=H1,则C=C1)宽度拓展至再将其与该层的对应卷积核相卷积,将卷积结果求和,求和结果加上lH层的第j个偏置参数经过ReLU激活函数处理,得到计算公式如下所示:

上式中,Expand_Zero(·)表示零扩充函数,如图5所示,为矩阵零扩充示意图,为lH层的第i个输入特征图与第j个输出特征图相对应的卷积核,nh为当前隐含层的输入特征图个数,表示lH层的第i个输入特征图,的取值由输入特征图的宽度和卷积核的大小决定,并有

当lH=H5时,首先计算H5层的第j个输出特征图通过零像素填充将aC5'的特征图分辨率拓展至10×10,再将其与该层的对应权值参数相乘,将计算结果求和,求和结果加上H5层第j个偏置参数经过ReLU激活函数处理,得到计算公式如下所示:

上式中,为H5层的第i个输入特征图与第j个输出特征图相对应的权值参数;

依次计算lH层所有的输出特征图,得到将l更新为l+1,并返回步骤1-5-1-1判断网络类型,进行下一个网络层的操作;

步骤1-5-1-3,处理卷积层:此时有l=lC,lC∈{C1,C2,C3,C4,C5},首先计算lC层的第j个输出特征图将lC层的输入特征图分别与该层的对应卷积核相卷积,将卷积结果求和,求和结果加上lC层的第j个偏置参数再经过ReLU激活函数处理,得到计算公式如下所示:

上式中,为lC层的第i个输入特征图与第j个输出特征图相对应的卷积核,nc为卷积层的输入特征图个数,表示lC层的第i个输入特征图,同时也是lC-1层的第i个输出特征图,*表示矩阵卷积,若lC=C1,则lC-1层为输入层。

依次计算lC层所有的输出特征图,得到用的值更新aC'(lC=C,例如当lC=C1时,则用aC1更新aC1'),将l更新为l+1,为并返回步骤1-5-1-1判断网络类型,进行下一个网络层的操作;

步骤1-5-1-3,处理下采样层:此时有l=lS,lS∈{S1,S2,S3,S4},将步骤1-5-1-2得到的卷积层的输出特征图分别与相卷积,再以步长为2进行采样,采样得到lS层的输出特征图计算公式如下所示:

上式中,Sample(·)表示步长为2的采样处理,lS-1表示当前下采样层的前一卷积层,表示lS层的输出特征图中的第j个输出特征图,得到lS层的输出特征图后,将l更新为l+1,并返回步骤1-5-1-1判断网络类型,进行下一个网络层的操作;

步骤1-5-1-4,计算F1层概率向量:此时有l=F1,通过矩阵变换,将C5的32幅分辨率为4×4的输出特征图以列顺序展开,得到分辨率为512×1的F1层的输出特征向量aF1,分别计算水平权值参数矩阵WH与aF1的外积、垂直权值参数矩阵WV与aF1的外积,将计算结果分别与水平偏置参数BH、垂直偏置参数BV求和,经Softmax函数处理后得到水平概率向量HPV和垂直概率向量VPV,具体计算公式如下:

将其垂直概率向量VPV转置,得到最终的垂直概率向量;

步骤1-5-2包括以下步骤:

步骤1-5-2-1,预测DC1层垂直方向:将输入层的最后一幅输入图像与垂直概率向量VPV相卷积,得到分辨率为240×280的DC1层输出特征图aDC1

步骤1-5-2-2,预测DC2层垂直方向:将DC1层输出特征图aDC1与水平概率向量HPV相卷积,得到前向传播的输出预测图像,其分辨率为240×240。

步骤1-6包括以下步骤:

步骤1-6-1,计算PPL误差项:将步骤1-5-2-2获得的预测图像与输入的训练样本中的对照标签求差,计算DC2层、DC1层的误差项,最终求得水平概率向量的误差项δHPV和垂直概率向量的误差项δVPV

步骤1-6-2,计算RDSN误差项:根据水平概率向量的误差项δHPV和垂直概率向量的误差项δVPV,从后至前依次计算分类层F1,卷积层(C5,C4,C3,C2,C1)隐含层(H5,H4,H3,H2,H1)和下采样层(S4,S3,S2,S1)的误差项,求得的任一层误差项矩阵的分辨率与该层的输出特征图的分辨率相一致;

步骤1-6-3,计算梯度:根据步骤1-6-2获得的误差项计算RDSN中各个网络层的误差项对该层权值参数和偏置参数的梯度值;

步骤1-6-4,更新参数:将步骤1-6-3获得的各网络层的权值参数和偏置参数的梯度值乘上RDCNN的学习率,得到各网络层权值参数和偏置参数的更新项,将原权值参数和偏置参数分别与该更新项求差,得到更新后的权值参数和偏置参数。

步骤1-6-1包括以下步骤:

步骤1-6-1-1,计算动态卷积层DC2误差项:将步骤1-5-2-2获得的预测图像与该组样本的对照标签求差,得到大小为240×240的误差项矩阵δDC2

步骤1-6-1-2,计算动态卷积层DC1误差项:通过零填充将DC2层的误差项矩阵δDC2拓展为240×320,将水平概率向量旋转180度,将拓展后的误差项矩阵与翻转后的水平概率向量相卷积,得到DC1层的误差项矩阵δDC1,其大小为240×280,公式如下所示:

δDC1=Expand_Zero(δDC2)*rot180(HPV),

上式中,rot180(·)表示角度为180°的旋转函数,将2×2的矩阵零扩充为4×4的矩阵,零扩充后的矩阵,中央分辨率为2×2的区域与原矩阵相一致,其余位置用零像素填充;

步骤1-6-1-3,计算概率向量误差项:计算水平概率向量HPV的误差项,将DC1层的输出特征图与误差项矩阵δDC2相卷积,卷积后得到1×41的行向量,该向量为HPV的误差项δHPV,公式如下:

δHPV=aDC1DC2

计算垂直概率向量VPV的误差项,将输入层的输入特征图与误差项矩阵δDC1相卷积,卷积后得到41×1的列向量,该向量为VPV的误差项δVPV,公式如下:

上式中,为训练样本的输入图像序列中的最后一幅图像;

步骤1-6-2包括以下步骤:

步骤1-6-2-1,计算分类器层F1误差项:将步骤1-6-1-3获得的概率向量的误差项δVPV和δHPV分别与F1层的垂直权值参数矩阵WV和水平权值参数矩阵WH进行矩阵相乘,再将矩阵的外积求和并取平均值,得到F1层的误差项δF1,公式如下:

上式中,×表示矩阵外积,(·)T代表矩阵的转置,得到的δF1的大小为512×1;

步骤1-6-2-2,计算卷积层C5误差项:通过矩阵变换,将步骤1-6-2-1中获得的F1层的误差项δF1变换为32个分辨率为4×4的矩阵得到C5层的误差项δC5,表示变换后的第32个分辨率为4×4的矩阵;

步骤1-6-2-3,判断网络层类型:用l表示当前所处的RDSN中的网络层,l的取值依次为{H5,S4,C4,H4,S3,C3,H3,S2,C2,H2,S1,C1,H1},l初始值为H5,判断网络层l的类型,若l∈{H5,H4,H3,H2,H1},则l为隐含层,执行步骤1-6-2-4;若l∈{S4,S3,S2,S1},则l为下采样层,执行步骤1-6-2-5,若l∈{C4,C3,C2,C1},则l为卷积层,执行步骤1-6-2-6;

步骤1-6-2-4,计算隐含层误差项:此时l=lH,lH∈{H5,H4,H3,H2,H1},计算lH层的第i个误差项矩阵通过零填充分别将l+1层(卷积层)的各个误差项矩阵δl+1拓展至宽度为ExpandSizel+1(ExpandSizel+1=OutputSizel+1+2·(KernelSizel+1-1)),再将对应的卷积核旋转180度,然后将拓展后的矩阵与翻转后的卷积核相卷积,并将卷积结果求和,得到lH层的第i个误差项矩阵公式如下所示:

上式中,nc表示l+1层(卷积层)的误差项个数,其数值与l+1层的输出特征图数量相同,并有nc=OutputMapsl+1

依次计算所有的误差项矩阵,得到lH层的输出特征图将l更新为l-1,并返回步骤1-6-2-3判断网络类型,计算上一个网络层的误差项;

步骤1-6-2-5,计算下采样层误差项:此时l=lS,lS∈{S4,S3,S2,S1},计算lS层的第i个误差项矩阵通过零填充分别将l+2层(对应卷积层)的各个误差项矩阵δl+2拓展至宽度为ExpandSizel+2(ExpandSizel+2=OutputSizel+2+2·(KernelSizel+2-1)),再将对应的卷积核旋转180度,然后将拓展后的矩阵与翻转后的卷积核相卷积,并将卷积结果求和,得到lS层的第i个误差项矩阵公式如下所示:

上式中,nc表示l+2层(卷积层)的误差项个数,其数值与l+2层的输出特征图数量相同,并有nc=OutputMapsl+2

依次计算所有的误差项矩阵,得到lS层的输出特征图将l更新为l-1,并返回步骤1-6-2-3判断网络类型,计算上一个网络层的误差项;

步骤1-6-2-6,计算卷积层误差项:此时有l=lC,lC∈{C4,C3,C2,C1},由于步骤1-6-2-3中l的初始值为H5,因此并不会出现lC=C5的情况,对于lC层的第i个误差项矩阵先对l+1层(下采样层)中的对应的第i个误差项矩阵进行上采样,如图6所示,为对2×2的矩阵进行上采样的过程示意图,上采样时将中每个元素的误差项值平均分至采样区域中,得到分辨率为的上采样矩阵,再计算激活函数在lC层对应特征图处的导数与求得的上采样矩阵的内积,得到lC层的第i个误差项矩阵公式如下所示:

上式中,·表示矩阵内积,ReLU'(·)表示ReLU激活函数的导数,其形式如下:

UpSamlpe(·)表示上采样函数,上采样后原图像中的每一个像素对应一个上采样区域,原像素值平均分配至采样区域中的每一个像素点中,依次计算所有的误差项矩阵,得到lC层的输出特征图

步骤1-6-2-7,此时l层为卷积层,即l=lC,之后分为两种情况:

若l≠C1,则将l更新为l-1,并返回步骤1-6-2-3判断网络类型,计算上一个网络层的误差项;

若l=C1,则步骤1-6-2子网络误差项计算结束;

步骤1-6-3包括以下步骤:

步骤1-6-3-1,计算卷积层误差项对卷积核的梯度:用lC表示当前处理的卷积层,lC∈{C1,C2,C3,C4,C5},从C1层开始逐层计算各卷积层误差项对卷积核的梯度,将卷积层的第i个输入特征图与第lC层的第j个误差项矩阵相卷积,卷积结果为对应卷积核的梯度值公式如下:

上式中,与分别表示第lC层的输出特征图个数与第lC-1层的输出特征图个数;

步骤1-6-3-2,计算各卷积层误差项对偏置的梯度:用lC表示当前处理的卷积层,lC∈{C1,C2,C3,C4,C5},从C1层开始逐层计算各卷积层误差项对偏置的梯度,将lC层的第j个误差项矩阵中的所有元素进行求和,得到该层第j个偏置的梯度值公式如下所示:

上式中,Sum(·)表示对矩阵的所有元素进行求和;

步骤1-6-3-3,计算隐含层误差项对卷积核的梯度:用lH表示当前处理的隐含层,lH∈{H1,H2,H3,H4,H5},从H1层开始逐层计算各卷积层误差项对卷积核的梯度,首先对隐含层误差项进行裁剪,保留中央宽度为的部分(当lH=H5时,保留H5层误差项中央宽度为4×4的部分)记为然后将隐含层的第i个输入特征图与的第j个分量相卷积,卷积结果为对应卷积核的梯度值公式如下:

上式中,与分别表示第lH层的输出特征图个数与第lH-1层的输出特征图个数;

步骤1-6-3-4,计算各隐含层误差项对偏置的梯度:用lH表示当前处理的隐含层,lH∈{H1,H2,H3,H4,H5},从H1层开始逐层计算各卷积层误差项对偏置的梯度,将步骤1-6-3-3中得到的第j个分量中的所有元素进行求和,得到该层第j个偏置的梯度值公式如下所示:

上式中,Sum(·)表示对矩阵的所有元素进行求和;

步骤1-6-3-5,计算F1层误差项对权值参数的梯度:分别计算水平概率向量与垂直概率向量的误差项δHPV、δVPV与F1层误差项δF1的内积,计算结果为F1层误差项对权值参数WH、WV的梯度值,公式如下:

▽WH=(δHPV)T×(δF1)T

▽WV=δVPV×(δF1)T

上式中,▽WH为误差项对水平权值参数的梯度值,▽WV为误差项对垂直权值参数的梯度值;

步骤1-6-3-6,计算F1层误差项对偏置参数的梯度:将水平概率向量与垂直概率向量的误差项δHPV、δVPV分别作为F1层误差项对水平偏置参数BH和垂直偏置参数BV的梯度值,公式如下:

▽BH=(δHPV)T

▽BV=δVPV

上式中,▽BH为误差项对水平偏置参数的梯度值,▽BV为误差项对垂直偏置参数的梯度值;

步骤1-6-4包括以下步骤:

步骤1-6-4-1,更新各卷积层权值参数:将步骤1-6-3-1获得的各卷积层误差项对卷积核的梯度乘上RDCNN的学习率,得到卷积核的修正项,再将原卷积核与该修正项求差,得到更新的卷积核公式如下:

上式中,λ为步骤1-3中确定的网络学习率,λ=0.0001;

步骤1-6-4-2,更新各卷积层偏置参数:将步骤1-6-3-2获得的各卷积层误差项对偏置的梯度乘上RDCNN的学习率,得到偏置参数的修正项,再将原偏置项与该修正项求差,得到更新的偏置项公式如下:

步骤1-6-4-3,更新各隐含层权值参数:将步骤1-6-3-3获得的各隐含层误差项对卷积核的梯度乘上RDCNN的学习率,得到卷积核的修正项,再将原卷积核与该修正项求差,得到更新的卷积核公式如下:

上式中,λ为步骤1-3中确定的网络学习率,λ=0.0001;

步骤1-6-4-4,更新各隐含层偏置参数:将步骤1-6-3-4获得的各隐含层误差项对偏置的梯度乘上RDCNN的学习率,得到偏置参数的修正项,再将原偏置项与该修正项求差,得到更新的偏置项公式如下:

步骤1-6-4-5,更新F1层权值参数:将步骤1-6-3-5获得的F1层误差项对权值参数WH和WV的梯度值乘上RDCNN的学习率,得到权值参数的修正项,再将原权值参数WH和WV分别与求得的修正项求差,得到更新的WH和WV,公式如下:

WH=WH-λ▽WH,

WV=WV-λ▽WV;

步骤1-6-4-6,更新F1层偏置参数:将步骤1-6-3-6获得的F1层误差项对偏置参数BH和BV的梯度值乘上RDCNN的学习率,得到偏置参数的修正项,再将原偏置参数BH和BV分别与求得的修正项求差,得到更新的BH和BV,公式如下:

BH=BH-λ▽BH,

BV=BV-λ▽BV。

步骤2包括以下步骤:

步骤2-1,数据预处理:输入测试图像集,对测试图像集中的每一幅图像进行规范化处理,将每一幅图像转化为280×280的灰度图像,再对灰度图像集合进行划分,构造包含TestsetSize组样本的测试样本集;

步骤2-2,读取测试样本:将步骤2-1获得的TestsetSize组测试样本输入经过训练的循环动态卷积神经网络中;

步骤2-3,前向传播:在子网络中提取输入的图像序列特征,得到水平概率向量HPVtest和垂直概率向量VPVtest;在概率预测层中,将输入图像序列中的最后一幅图像依次与VPVtest、HPVtest相卷积,得到循环动态卷积神经网络最终的外推图像。

步骤2-1包括以下步骤:

步骤2-1-1,采样:测试图像集中的图像按时间顺序排列,并且等时间间隔分布,时间间隔为6分钟,共包含NTest幅图像,通过如下公式确定TestsetSize:

如果Mod(NTest,4)=0则

如果Mod(NTest,4)≠0则

求得TestsetSize后,通过采样保留测试图像集中前4×TestsetSize+1幅图像,采样时通过删除测试图像集中最后的图像使图像数量满足要求;

步骤2-1-2,图像规范化:对采样得到的图像进行图像变换,归一化操作,将原始分辨率为2000×2000的彩色图像转换成分辨率为280×280的灰度图像;

步骤2-1-3,构造测试样本集:利用步骤2-1-2获得的灰度图像集构造测试样本集,将灰度图像集中每四个相邻的图像,即第{4M+1,4M+2,4M+3,4M+4}幅图像作为一组输入序列,第[4×(M+1)+1]幅图像经过裁剪,保留中央分辨率为240×240的部分作为对应样本的对照标签,其中为正整数,并有M∈[0,TestsetSize-1]得到包含TestsetSize组测试样本的测试样本集;

步骤2-1-2包括以下步骤:

步骤2-1-2-1,图像转化:将彩色的回波强度CAPPI图像转化为灰度图像,再通过裁剪保留原始图像中央分辨率为560×560的部分,将裁剪后的图像分辨率压缩为280×280,得到分辨率为280×280的灰度图;

步骤2-1-2-2,数据归一化:将步骤1-1-2-1中获得的灰度图中的每一个像素点的值从[0~255]映射到[0~1];

步骤2-3包括以下步骤:

步骤2-3-1,计算子网络概率向量:在子网络中通过卷积层和下采样层的交替处理提取输入的图像序列特征,然后在分类器层中通过Softmax函数处理,得到水平概率向量HPVtest和垂直概率向量VPVtest;

步骤2-3-2,计算概率预测层输出图像:步骤2-3-1得到的VPVtest和HPVtest作为概率预测层的卷积核,将输入图像序列中的最后一幅图像依次与VPVtest和HPVtest相卷积,得到循环动态卷积神经网络最终的外推图像;

步骤2-3-1包括以下步骤:

步骤2-3-1-1,判断网络层类型:用p表示当前RDSN中的网络层,p的取值依次为{H1,C1,S1,H2,C2,S2,H3,C3,S3,H4,C4,S4,H5,C5,F1},其初始值为H1。判断网络层p的类型,若p∈{H1,H2,H3,H4,H5},则p为隐含层,执行步骤2-3-1-2;若p{C1,C2,C3,C4,C5},则p为卷积层,执行步骤2-3-1-3;若p∈{S1,S2,S3,S4},则p为下采样层,执行步骤2-3-1-4;若p=F1,则p为分类器层,执行步骤2-3-1-5。测试过程中将本次测试的输出特征图记为aC”,其中C∈{C1,C2,C3,C4,C5},aC”的初始值为零矩阵;

步骤2-3-1-2,处理隐含层:此时有p=pH,pH∈{H1,H2,H3,H4,H5},此时分为两种情况:

当pH∈{H1,H2,H3,H4}时,首先计算pH层的第v个输出特征图通过零像素填充将aC”中对应的特征图(若pH=H1,则C=C1)宽度拓展至再将其与该层的对应卷积核相卷积,将卷积结果求和,求和结果加上pH层的第v个偏置参数经过ReLU激活函数处理,得到计算公式如下所示:

上式中,Expand_Zero(·)表示零扩充函数,为pH层的第u个输入特征图与第v个输出特征图相对应的卷积核,mh为当前隐含层的输入特征图个数,表示pH层的第u个输入特征图,的取值由输入特征图的宽度和卷积核的大小决定,并有

当pH=H5时,首先计算H5层的第v个输出特征图通过零像素填充将aC5”的特征图分辨率拓展至10×10,再将其与该层的对应权值参数相乘,将计算结果求和,求和结果加上H5层第v个偏置参数经过ReLU激活函数处理,得到计算公式如下所示:

上式中,为H5层的第u个输入特征图与第v个输出特征图相对应的权值参数;

依次计算pH层所有的输出特征图,得到将p更新为l+1,并返回步骤2-3-1-1判断网络类型,进行下一个网络层的操作;

步骤2-3-1-3,处理卷积层:此时有p=pC,pC∈{C1,C2,C3,C4,C5},首先计算pC层的第v个输出特征图将pC层的输入特征图分别与该层的对应卷积核相卷积,将卷积结果求和,求和结果加上pC层的第v个偏置参数再经过ReLU激活函数处理,得到计算公式如下所示:

上式中,为pC层的第u个输入特征图与第v个输出特征图相对应的卷积核,mc为卷积层的输入特征图个数,表示pC层的第u个输入特征图,同时也是pC-1层的第u个输出特征图,*表示矩阵卷积,若pC=C1,则pC-1层为输入层。

依次计算pC层所有的输出特征图,得到用的值更新aC”(pC=C,例如当pC=C1时,则用aC1更新aC1”),将p更新为p+1,为并返回步骤2-3-1-3判断网络类型,进行下一个网络层的操作;

步骤2-3-1-4,处理下采样层:此时有p=pS,pS∈{S1,S2,S3,S4},将步骤2-3-1-3得到的卷积层的输出特征图分别与相卷积,再以步长为2进行采样,采样得到pS层的输出特征图计算公式如下所示:

其中,Sample(·)表示步长为2的采样处理,pS-1表示当前下采样层的前一卷积层,表示pS层的输出特征图中的第j个输出特征图,得到pS层的输出特征图后,将p更新为p+1,并返回步骤2-3-1-1判断网络类型,进行下一个网络层的操作;

步骤2-3-1-4,计算F1层概率向量:若网络层p为分类器层,即p=F1,通过矩阵变换,将C5的32幅分辨率为4×4的输出特征图以列顺序展开,得到分辨率为512×1的F1层的输出特征向量然后分别计算水平参数矩阵WH、垂直参数矩阵WV与的外积,将计算结果分别与水平偏置参数BH、垂直偏置参数BV求和,求和结果经Softmax函数处理后得到水平概率向量HPVtest、垂直概率向量VPVtest,计算公式如下:

将其垂直概率向量VPVtest转置,得到最终的垂直概率向量;

步骤2-3-2包括以下步骤:

步骤2-3-2-1,预测DC1层垂直方向:将输入层的最后一幅输入图像与垂直概率向量VPVtest相卷积,得到分辨率为240×280的DC1层输出特征图

步骤2-3-2-2,预测DC2层垂直方向:将步骤2-3-2-1获得的与水平概率向量HPVtest相卷积,得到RDCNN最终的外推图像,其分辨率为240×240。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1