一种雷达回波外推预报方法及系统

文档序号:32351085发布日期:2022-11-26 13:09阅读:82来源:国知局
一种雷达回波外推预报方法及系统

1.本发明涉及一种雷达回波外推预报方法及系统,属于降雨短临预报领域。


背景技术:

2.降雨短临预报通常是指对某一地区未来短时间内的降雨量进行预测,在预防气象灾害中具有重要的地位,准确的降雨短临预测可以在洪涝、雷暴等天气来临时提前做好预防,减少人员伤亡和财产损失。
3.目前,基于雷达回波外推技术是预报天气的主要技术手段。因此,如何利用雷达回波外推技术获取精准、快速的天气临近预报,成为气象研究方面的难点和重点之一。
4.近年来,各种机器学习技术应用于解决短临预测等时空序列预测问题,在众多神经网络中,长短期记忆单元(long-short term memory,lstm)是循环神经网络(rnn)的一种变体,它通过在rnn网络单元中引入记忆单元和门控单元来解决序列的长期依赖问题。在此基础上还衍生出许多改进的模型,如convlstm(卷积长短期记忆单元)、predrnn(预测性递归神经网络)、convgru(卷积门控递归单元)、trajgru(轨迹门控递归单元)等。然而,这些网络没有考虑网络输入数据之间的上下文相关性,并且存在预测单元的时间感受野狭窄的问题,影响对未来时刻的降雨预测精度。


技术实现要素:

5.本发明提供了一种雷达回波外推预报方法及系统,解决了背景技术中披露的问题。
6.为了解决上述技术问题,本发明所采用的技术方案是:一种雷达回波外推预报方法,包括:获取雷达回波图像序列;将雷达回波图像序列输入预先训练的预测神经网络,获得雷达回波外推预测图像;其中,预测神经网络包括从输入到输出依次连接的编码器、预测网络和译码器,预测网络包括若干层依次连接的预测单元,预测单元采用基于上下文信息融合及注意力机制的长短期记忆网络。
7.预测单元的工作过程为:对和进行信息融合,获得和;其中,若当前时刻当前预测单元层数l》1,为当前时刻第l-1层预测单元输出的隐藏状态,为前一时刻第l层预测单元输出的隐藏状态;若当前时刻当前预测单元层数l=1,,为当前时刻编码器的输出;为对应的新隐藏状态,为对应的新隐藏状态;基于注意力机制,根据、、和,获得;其中,为前一时刻第l层预测单元输出的记忆单元,为前τ个时刻第l层预测单元输出的记忆单元集,
为前τ个时刻第l-1层预测单元输出的隐藏状态集,若当前时刻当前预测单元层数l=1,,为带有多个时间步信息的增强记忆单元;根据、、和,获得当前时刻当前预测单元输出的隐藏状态、时空单元和记忆单元;其中,若当前时刻当前预测单元层数l=1,为前一时刻最后一层预测单元输出的时空单元,若当前时刻当前预测单元层数l》1,为当前时刻第l-1层预测单元输出的时空单元;最后一层预测单元输出的隐藏状态作为译码器的输入。
8.获得和的公式为:其中,*表示二维卷积,表示矩阵的点乘运算,为sigmoid激活函数,concat表示通道拼接,为的卷积核,为的卷积核,表示卷积核的大小,为依次经过不同尺寸卷积提取、进行通道拼接后的量,为依次经过不同尺寸卷积提取、进行通道拼接后的量,均为的卷积核,均为的卷积核,为用于更新的融合门,为用于更新的融合门。
9.基于注意力机制,根据和,获得,包括:对进行卷积运算;将卷积运算后的结果与分别进行点乘,获得;其中,为相关性系数;根据,获得;其中,为注意力得分;将和分别相乘后进行聚合,获得;其中,为长期运动信息;采用构建的融合门,根据、融合门和,获得。
10.获得的公式为:
其中,*表示二维卷积,表示矩阵的点乘运算,为卷积运算后的结果,为中第i个元素,为前i个时刻l-1层预测单元输出的隐藏状态,为中第j个元素,为前j个时刻第l层预测单元输出的记忆单元,为的卷积核,为的卷积核,为sigmoid激活函数。
11.根据和,获得当前时刻当前预测单元输出的隐藏状态、时空单元和记忆单元,包括:根据和,获得当前时刻当前预测单元输出的记忆单元;根据和,获得当前时刻当前预测单元输出的时空单元;根据和,获得当前时刻当前预测单元输出的隐藏状态。
12.获得当前时刻当前预测单元输出的记忆单元的公式为:其中,为sigmoid激活函数,为当前时刻用于输入门的卷积核,为前一时刻用于输入门的卷积核,为当前时刻用于输入调制门的卷积核,为前一时刻用于输入调制门的卷积核,表示当前时刻用于遗忘门的卷积核,表示前一时刻用于遗忘门的卷积核,为第一输入门,为第一输入调制门,为第一遗忘门,为对应的偏差,为对应的偏差,为对应的偏差,*表示二维卷积,表示矩阵的点乘运算。
13.获得当前时刻当前预测单元输出的时空单元的公式为:
其中,为第二输入门,为第二输入调制门,为第二遗忘门,为对应的偏差,为对应的偏差,为对应的偏差,*表示二维卷积,表示矩阵的点乘运算,tanh表示双曲正切激活函数, 表示当前时刻用于输入门的卷积核,表示当前时刻用于输入门的卷积核,表示当前时刻用于输入调制门的卷积核,表示当前时刻用于输入调制门的卷积核,表示当前时刻用于遗忘门的卷积核,表示当前时刻用于遗忘门的卷积核。
14.获得当前时刻当前预测单元输出的隐藏状态的公式为:其中,*表示二维卷积,表示矩阵的点乘运算,为输出门,为对应的偏差,tanh表示双曲正切激活函数,表示和按列拼接并保持行不变,表示当前时刻用于输出门的卷积核,表示前一时刻用于输出门的卷积核,表示用于输出门的卷积核,表示用于输出门的卷积核,表示用于的大小为的卷积核。一种雷达回波外推预报系统,包括:获取模块,获取雷达回波图像序列;预测模块,将雷达回波图像序列输入预先训练的预测神经网络,获得雷达回波外推预测图像;其中,预测神经网络包括从输入到输出依次连接的编码器、预测网络和译码器,预测网络包括若干层依次连接的预测单元,预测单元采用基于上下文信息融合及注意力机制的长短期记忆网络。
15.本发明所达到的有益效果:本发明采用基于上下文信息融合及注意力机制的长短期记忆网络构建预测神经网络,通过上下文信息融合提高了输入数据之间的相关性和输入数据的时空细节特征,增强网络的短期依赖能力,通过注意力机制可拓宽预测单元的时间感受野来感知更多的时间动态,捕获更可靠的帧间运动信息,大大增强了降雨预测精度。
附图说明
16.图1为本发明方法的流程图;图2为预测单元的结构示意图;图3为细节上下文融合示意图;
图4为注意力机制示意图;图5为预测网络的结构示意图。
具体实施方式
17.下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
18.如图1所示,一种雷达回波外推预报方法,包括以下步骤:步骤1,获取雷达回波图像序列;步骤2,将雷达回波图像序列输入预先训练的预测神经网络,获得雷达回波外推预测图像;其中,预测神经网络包括从输入到输出依次连接的编码器encoder、预测网络和译码器decoder,预测网络包括若干层依次连接的预测单元ca-lstm,预测单元ca-lstm采用基于上下文信息融合及注意力机制的长短期记忆网络。
19.上述方法采用基于上下文信息融合及注意力机制的长短期记忆网络构建预测神经网络,通过上下文信息融合提高了输入数据之间的相关性和输入数据的时空细节特征,增强网络的短期依赖能力,通过注意力机制可拓宽预测单元的时间感受野来感知更多的时间动态,捕获更可靠的帧间运动信息,大大增强了降雨预测精准度。
20.在实施上述方法之前,需要先构建预测神经网络,并对网络进行训练,具体可以如下:获取雷达回波图像序列,去除没有降雨或降雨量极少的无效数据,通过数据插值得到等高平面位置显示(constant altitude plan position indicator,cappi) 数据,将cappi数据转化为归一化灰度数据集,最后将数据集划分为训练样本集和测试样本集。
21.具体将三维极坐标下的数据转换到三维笛卡尔直角坐标系中,采用反距离加权法进行数据插值,得到三维笛卡尔直角坐标系下的规整网格数据,然后将数据进行水平采样,提取某一高度下的二维平面数据,将数据映射到0~255,便得到回波强度cappi灰度图像,再通过归一化将反射率数据转化为归一化灰度数据;其中,数据映射公式为:其中,p为灰度像素,z为数据的强度值,为数值向下取整;数据归一化公式为:通过数据归一化,可获得归一化灰度数据的值在[0,1]。
[0022]
进一步对数据集进行划分:设置total_length为20,即每20个数据划分为一个序列,其中前10个数据为输入序列,后10个为对照序列。将数据集中各个月份所有序列按3:1随机划分为训练序列样本子集和测试序列样本子集,合并各个月份的训练序列样本子集和测试序列样本子集,得到训练序列样本集train_data和测试序列样本集test_data。
[0023]
预测神经网络包括从输入到输出依次连接的编码器、预测网络和译码器,预测网
络包括若干层依次连接的预测单元,预测单元采用基于上下文信息融合及注意力机制的长短期记忆网络。
[0024]
可先对预测神经网络的训练参数初始化,具体设置输入图像的高度height、宽度width和通道channel、卷积核filter_size、卷积步长stride、预测单元堆叠层数num_layers、卷积核数量num_hidden、训练阶段每次输入的样本数量batch_size、训练最大轮数max_epoch、学习率λ、输入序列长度input_length和外推序列长度output_length等。
[0025]
具体可将输入图像高度设置为height=480,宽度设置为width=560,通道数设置为channel=1, 预测单元堆叠层数设置为num_layers=4,卷积核大小设置为filter_size=5,步长设置为stride=1,卷积核数量设置为hidden_num=64,学习率设置为λ=0.001,输入序列长度设置为input_length=10,外推序列长度设置为output_length=10,训练阶段每次输入的样本数量设置为batch_size=4,训练最大轮次设置为max_epoch=80。
[0026]
在构建预测神经网络时,首先构建编码器,编码器包含三层卷积层:第1层卷积层输入通道为1,输出通道为64,卷积核为1,步长为1;第2层卷积层输入通道为64,输出通道为64,卷积核为3,步长为2,padding为1;第3层卷积层输入通道为64,输出通道为64,卷积核为3,步长为2,padding为1,每层卷积后进行依次非线性激活。
[0027]
其次,根据设置的预测单元堆叠层数、卷积核大小、步长、卷积核数量,构建4层预测单元,并按顺序依次堆叠在编码器之后。
[0028]
最后构建译码器,包含三层卷积层:第1层卷积层输入通道为64,输出通道为64,卷积核为3,步长为2,padding为1;第2层卷积层输入通道为64,输出通道为64,卷积核为3,步长为2,padding为1;第3层卷积层,输入通道为64,输出通道为1,卷积核为1,步长为1。
[0029]
在一开始时,预测神经网络中的隐藏状态、记忆单元、时空单元初始化为全零张量,大小为(4,64,120,140),前τ个时刻的隐藏状态和记忆单元集同样初始化为全零张量,大小为(τ,4,64,120,140),每经过一个时刻后将各层的输出进行更新,其中,τ取值为5。
[0030]
如图2和5,预测网络的工作过程为:1)对和 进行信息融合,获得和 ;其中,若当前时刻当前预测单元层数l》1,为当前时刻第l-1层预测单元输出的隐藏状态,为前一时刻第l层预测单元输出的隐藏状态;若当前时刻当前预测单元层数l=1,,为当前时刻编码器的输出;为对应的新隐藏状态,为对应的新隐藏状态。
[0031]
见图3,图中conv表示进行卷积运算,channel concat表示进行通道拼接,获得和的过程用公式可表示为:
其中,*表示二维卷积,表示矩阵的点乘运算,为sigmoid激活函数,concat表示通道拼接,为的卷积核,为的卷积核,表示卷积核的大小,为依次经过不同尺寸卷积提取、进行通道拼接后的量,为依次经过不同尺寸卷积提取、进行通道拼接后的量,均为的卷积核,均为的卷积核,为用于更新的融合门,为用于更新的融合门。
[0032]
从上述等式可以看出,对和分别进行卷积核为的卷积操作,对卷积后的图像进行通道拼接得到和,然后对和再进行卷积操作,使得通道还原并对其进行sigmoid操作,控制上下文信息的融合率。可以看到对输入进行不同尺寸的卷积以提取更精细的时空特征,同时更新都会使用的信息,这意味着它融合了的时空信息;同样在更新时,它从中收集信息。通过这个过程,提高了输入和隐藏状态的上下文信息相关性。
[0033]
2)基于注意力机制,根据和,获得;其中,为前一时刻第l层预测单元输出的记忆单元,为前τ个时刻第l层预测单元输出的记忆单元集,为前τ个时刻第l-1层预测单元输出的隐藏状态集,若当前时刻当前预测单元层数l=1,,为带有多个时间步信息的增强记忆单元。
[0034]
具体过程如下:21)对进行卷积运算;22)将卷积运算后的结果与分别进行点乘,获得;其中,为相关性系数;23)根据,通过softmax函数获得;其中,为注意力得分;24)将和分别相乘后进行聚合,获得;其中,为长期运动信息;25)采用构建的融合门,根据、融合门和,获得。
[0035]
见图4,图中softmax表示非线性激活函数,mul表示乘法(multiplication),获得的过程用公式可表示为:
其中,为卷积运算后的结果,为中第i个元素,为前i个时刻l-1层预测单元输出的隐藏状态,为中第j个元素,为前j个时刻第l层预测单元输出的记忆单元,为的卷积核,为的卷积核。
[0036]
3)根据和,获得当前时刻当前预测单元输出的隐藏状态、时空单元和记忆单元;其中,若当前时刻当前预测单元层数l=1,为前一时刻最后一层预测单元输出的时空单元,若当前时刻当前预测单元层数l》1,为当前时刻第l-1层预测单元输出的时空单元;最后一层预测单元输出的隐藏状态为译码器的输入。
[0037]
具体过程如下:31)根据和,获得当前时刻当前预测单元输出的记忆单元。
[0038]
获得的过程用公式可以表示为:其中,为当前时刻用于输入门的卷积核,为前一时刻用于输入门的卷积核,为当前时刻用于输入调制门的卷积核,为前一时刻用于输入调制门的卷积核,表示当前时刻用于遗忘门的卷积核,表示前一时刻用于遗忘门的卷积核,为第一输入门,为第一输入调制门,为第一遗忘门,为对应的偏差,为对应的偏差,为对应的偏差。
[0039]
32)根据和,获得当前时刻当前预测单元输出的时空单元。
[0040]
获得的过程用公式可以表示为:其中,为第二输入门,为第二输入调制门,为第二遗忘门,为对应的偏差,为对应的偏差,为对应的偏差,tanh表示双曲正切激活函数,表示当前时刻用于输入门的卷积核,表示当前时刻用于输入门的卷积核,表示当前时刻用于输入调制门的卷积核,表示当前时刻用于输入调制门的卷积核,表示当前时刻用于遗忘门的卷积核,表示当前时刻用于遗忘门的卷积核。
[0041]
33)根据和,获得当前时刻当前预测单元输出的隐藏状态。
[0042]
获得的过程用公式可以表示为:其中,为输出门,为对应的偏差,tanh表示双曲正切激活函数,表示和按列拼接并保持行不变,表示当前时刻用于输出门的卷积核,表示前一时刻用于输出门的卷积核,表示用于输出门的卷积核,表示用于输出门的卷积核,表示用于的大小为的卷积核。
[0043]
上述网络训练过程如下:s1)训练样本读取。每次训练时从训练样本集中读取batch_size=4个序列样本作为网络的输入。
[0044]
s2)假设某一时刻的输入,的大小为(4,1,480,560),将输入编码器,提取样本的深度特征,经过编码器的三层卷积后输出为,公式如下:其中,表示用于从输入中提取深层特征的编码器。
[0045]
s3)根据上述1)~3)的过程,预测网络最后一层预测单元输出隐藏状态,并将输入译码器,对隐藏状态进行解码输出,获得下一时刻的预测结果图像,大小为(4,
1,480,560),完成从输入到的雷达回波外推;用公式可表示为:其中,表示用于将预测特征映射到帧的译码器。
[0046]
s4)当t≥10时,将作为输入,重复步骤s2)至s3),直至t = 19,依次得到预测的未来时刻的图像序列,完成雷达回波序列外推。
[0047]
s5)计算损失函数值。对步骤s2)至步骤s4)前向传播得到的预测序列和外推参照序列以均方误差作为损失函数,根据损失函数所得数值计算网络参数梯度,并更新网络参数,完成反向传播。
[0048]
s6)训练集中所有数据都完成一次计算为一轮,重复执行步骤s2)至步骤s5),直至完成训练最大轮数或者达到收敛条件,完成网络训练。
[0049]
上述训练过程以图5为例,s2)~ s4)的过程可以为:a1)样本输入编码器,提取样本的深度特征。
[0050]
a2)、一开始初始化的隐藏状态、记忆单元、时空单元、前τ个时刻的输入和记忆单元输入到第1层长短期记忆网络中,经过前向传播后输出隐藏状态、记忆单元、时空单元。
[0051]
a3)步骤a2)输出的隐藏状态和时空单元、初始化的隐藏状态、记忆单元、前τ个时刻的隐藏状态和记忆单元输入到第2层长短期记忆网络中,经前向传播后得到该层输出的隐藏状态、记忆单元和时空单元。
[0052]
a4)同步骤a3)类似,将和、初始化的隐藏状态、记忆单元、前τ个时刻的隐藏状态和记忆单元输入第3层长短期记忆网络中,经前向传播后得到该层输出的隐藏状态、记忆单元和时空单元。
[0053]
a5)同步骤a3)类似,将和、初始化的隐藏状态、记忆单元、前τ个时刻的隐藏状态和记忆单元输入第4层长短期记忆网络中,经前向传播后得到该层输出的隐藏状态、记忆单元和时空单元。
[0054]
a6)将输入译码器,获得下一时刻的预测结果图像,完成从输入到的雷达回波外推。
[0055]
a7)将样本输入编码器,提取样本的深度特征。
[0056]
a8)、隐藏状态、记忆单元、时空单元、前τ个时刻的输入和记忆单元输入到第1层长短期记忆网络中,经过前向传播后输出隐藏状态、记忆单元
、时空单元。
[0057]
a9)将和、隐藏状态、记忆单元、前τ个时刻的输入和记忆单元输入到第2层长短期记忆网络中,经前向传播后得到该层输出的隐藏状态、记忆单元和时空记忆。
[0058]
a10)将和、隐藏状态、记忆单元、前τ个时刻的输入和记忆单元输入到第3层长短期记忆网络中,经前向传播后得到该层输出的隐藏状态、记忆单元和时空记忆。
[0059]
a11)将和、隐藏状态、记忆单元、前τ个时刻的输入和记忆单元输入到第4层长短期记忆网络中,经前向传播后得到该层输出的隐藏状态、记忆单元和时空记忆。
[0060]
a12)将输入译码器,获得下一时刻的预测结果图像,完成从输入到的雷达回波外推。
[0061]
a13)当t=11,12,

,19时,将前一时刻经过预测输出的作为网络的输入,重复执行a7)~ a12),直至t=19,依次得到预测的未来时刻的图像序列,完成雷达回波序列外推。
[0062]
利用训练好的网络实施雷达回波外推预报时,先获取雷达回波图像序列,可以对获取的雷达回波图像序列进行预处理,如插值、归一化等(和处理样本数据类似),将雷达回波图像序列输入预测神经网络,即可获得雷达回波外推预测图像。
[0063]
上述方法采用基于上下文信息融合及注意力机制的长短期记忆网络构建预测神经网络,通过上下文信息融合提高了输入数据之间的相关性和输入数据的时空细节特征,增强网络的短期依赖能力,通过注意力机制可拓宽预测单元的时间感受野来感知更多的时间动态,捕获更可靠的帧间运动信息,大大增强了降雨预测精准度。上述方法克服了现有技术对上下文信息提取不足、预报时效短的缺点,实现了准确度更高的雷达回波外推预测。
[0064]
基于相同的技术方案,本发明还公开了上述方法的软件系统,一种雷达回波外推预报系统,包括:获取模块,获取雷达回波图像序列;预测模块,将雷达回波图像序列输入预先训练的预测神经网络,获得雷达回波外推预测图像;其中,预测神经网络包括从输入到输出依次连接的编码器、预测网络和译码器,预测网络包括若干层依次连接的预测单元,预测单元采用基于上下文信息融合及注意力机制的长短期记忆网络。
[0065]
上述系统中模块的数据处理流程与方法的一致,这里不重复描述了。
[0066]
基于相同的技术方案,本发明还公开了一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令当由计算设备执行时,使得所述计算设备
执行雷达回波外推预报方法。
[0067]
基于相同的技术方案,本发明还公开了一种计算设备,包括一个或多个处理器、一个或多个存储器以及一个或多个程序,其中一个或多个程序存储在所述一个或多个存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行雷达回波外推预报方法的指令。
[0068]
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0069]
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0070]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0071]
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0072]
以上仅为本发明的实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均包含在申请待批的本发明的权利要求范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1