基于parallelCNN-GRU的风压短期预测方法、装置和计算机设备

文档序号:31163631发布日期:2022-08-17 08:19阅读:57来源:国知局
基于parallelCNN-GRU的风压短期预测方法、装置和计算机设备
基于parallel cnn-gru的风压短期预测方法、装置和计算机设备
技术领域
1.本发明涉及建筑结构风压预测技术领域,特别涉及一种基于parallel cnn-gru的风压短期预测方法、装置和计算机设备。


背景技术:

2.由于建筑结构长期处于复杂的服役环境,因此,在数据采集过程中造成的异常、失真、损失数据难以恢复。风敏结构状态的确定主要依赖于对传感器风压数据的分析和判断,当数据无法满足完整性及有效性等条件时,建筑结构状态误判的可能性将被增大。
3.由于风压数据之间具有相关性且时间维度前后具有依赖性,传感器所获取的风压信号数据量较多,而现有的机器学习方法无法充分考虑风压信号的时间序列和多变量相关特征的提取。同时,现有的联合网络模型往往采用数据单向传输的串联结构,在数据处理过程中易造成数据的部分相关特性丢失,从而降低模型对缺失数据的预测性能。


技术实现要素:

4.本发明提供了一种基于parallel cnn-gru的风压短期预测方法、装置和计算机设备,以解决现有风压数据采集中异常、失真、损失数据频繁出现的问题。。
5.本发明提供了一种基于parallel cnn-gru的风压短期预测方法,包括:
6.获取建筑结构的原始风压数据;
7.构建parallel cnn-gru神经网络模型;
8.利用所述原始风压数据对所述parallel cnn-gru神经网络模型进行训练,得到训练完成的parallel cnn-gru神经网络模型;
9.采集建筑结构的实时风压数据,并将所述实时风压数据输入所述训练完成的parallel cnn-gru神经网络模型,得到所述建筑结构的完整风压数据。
10.进一步地,所述构建parallel cnn-gru神经网络模型的步骤,包括:
11.确定cnn神经网络模型的隐藏层,所述cnn神经网络模型的隐藏层包括第一卷积层、第一池化层、第一dropout层和第一全连接层;
12.确定gru神经网络模型的隐藏层,所述gru神经网络模型的隐藏层包括重置门和更新门;将所述cnn神经网络模型的隐藏层与所述gru神经网络模型的隐藏层并联形成所述parallel cnn-gru神经网络模型的隐藏层;
13.确定所述parallel cnn-gru神经网络模型的第二卷积层、第二池化层、第二dropout层和第二全连接层,作为所述parallel cnn-gru神经网络模型的输出层;
14.将对所述原始风压数据进行初步处理作为所述parallel cnn-gru神经网络模型的输入层;
15.所述输入层、隐藏层和输出层组成所述parallel cnn-gru神经网络模型。
16.进一步地,所述利用所述原始风压数据对所述parallel cnn-gru神经网络模型进
行训练,得到训练完成的parallel cnn-gru神经网络模型的步骤包括:
17.利用所述parallel cnn-gru神经网络模型的输入层对所述原始风压数据进行初步处理,得到目标风压数据;其中,所述初步处理包括预处理、数据增强;
18.将所述目标风压数据划分为训练集数据、验证集数据和测试集数据;
19.将所述训练集数据输入所述parallel cnn-gru神经网络模型的隐藏层,得到目标空间特征和时间特征;
20.将所述空间特征和时间特征进行拼接形成拼接特征,并通过所述parallel cnn-gru神经网络模型的输出层得到结果风压数据;
21.利用所述验证集数据对所述parallel cnn-gru神经网络模型进行优化;
22.利用所述测试集数据对优化后的parallel cnn-gru神经网络模型进行测试,得到所述训练完成的parallel cnn-gru神经网络模型。
23.进一步地,所述将所述训练集数据输入所述parallel cnn-gru神经网络模型的隐藏层,得到空间特征和时间特征的步骤,包括:
24.所述parallel cnn-gru神经网络模型中cnn神经网络模型的第一卷积层用于提取初始空间特征;
25.所述初始空间特征经过所述cnn神经网络模型的第一池化层、第一dropout层后,通过第一全连接层输出所述空间特征;
26.所述parallel cnn-gru神经网络模型中gru神经网络模型的重置门用于捕捉短期时序特征,更新门用于捕捉长期时序特征;
27.将所述短期时序特征和所述长期时序特征组合形成所述时间特征。
28.进一步地,所述利用所述验证集数据对所述parallel cnn-gru神经网络模型进行优化的步骤,包括:
29.将所述结果风压数据与所述原始风压数据进行比对,判断所述结果风压数据与所述原始风压数据的误差是否在设定范围内;
30.若所述结果风压数据与所述原始风压数据的误差是不在设定范围内,则利用验证集数据对parallel cnn-gru神经网络模型进行优化;
31.返回所述将所述训练集数据输入所述parallel cnn-gru神经网络模型的隐藏层,得到空间特征和时间特征的步骤;
32.若所述结果风压数据与所述原始风压数据的误差是在设定范围内,则完成训练。
33.进一步地,所述采集建筑结构的实时风压数据,并将所述实时风压数据输入所述训练完成的parallel cnn-gru神经网络模型,得到所述建筑结构的完整风压数据的步骤,包括:
34.采集建筑结构的实时风压数据;
35.利用所述训练完成的parallel cnn-gru神经网络模型的输入层对所述原始风压数据依次进行归一化、降噪、数据增强处理;
36.将所述实时风压数据输入所述训练完成的parallel cnn-gru神经网络模型的隐藏层,得到空间特征和时间特征;
37.将所述空间特征和时间特征进行拼接形成拼接特征,并通过所述训练完成的parallel cnn-gru神经网络模型的输出层得到完整风压数据。
38.本发明还提供了一种基于parallel cnn-gru的风压短期预测装置,包括:
39.获取模块,用于获取建筑结构的原始风压数据;
40.构建模块,用于构建parallel cnn-gru神经网络模型;
41.训练模块,用于利用所述原始风压数据对所述parallel cnn-gru神经网络模型进行训练,得到训练完成的parallel cnn-gru神经网络模型;
42.运用模块,用于采集建筑结构的实时风压数据,并将所述实时风压数据输入所述训练完成的parallel cnn-gru神经网络模型,得到所述建筑结构的完整风压数据。
43.本发明还提供了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
44.本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述方法的步骤。
45.本发明的有益效果为:
46.本发明构建并行卷积与门控循环单元网络(parallel cnn-gru)神经网络模型,由于数据之间具有相关性且时间维度前后具有依赖性,parallel cnn-gru神经网络模型相比单一、串行等传统神经网络模型,使得数据流在通过cnn层后不会导致数据的部分时间相关特性丢失,实现缺失数据的高效预测,有效解决了传统模型存在的问题。
附图说明
47.图1为本发明一实施例的方法流程示意图。
48.图2为本发明一实施例的parallel cnn-gru输入层的结构示意图。
49.图3为本发明一实施例的parallel cnn-gru隐藏层的结构示意图。
50.图4为本发明一实施例的parallel cnn-gru输出层的结构示意图。
51.图5为本发明一实施例的装置结构示意图。
52.图6为本发明一实施例的计算机设备内部结构示意图。
53.本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
54.应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
55.如图1所示,本发明提供了一种基于parallel cnn-gru的风压短期预测方法,包括:
56.s1、获取建筑结构的原始风压数据;
57.s2、构建parallel cnn-gru神经网络模型;
58.s3、利用所述原始风压数据对所述parallel cnn-gru神经网络模型进行训练,得到训练完成的parallel cnn-gru神经网络模型;
59.s4、采集建筑结构的实时风压数据,并将所述实时风压数据输入所述训练完成的parallel cnn-gru神经网络模型,得到所述建筑结构的完整风压数据。
60.如上述步骤s1所述,获取建筑结构的历史风压数据,并将所述历史风压数据按时序整合成原始风压数据序列。其中,在使用原始风压数据进行模型训练前,可以将原始风压数据通过人为筛选的方式,筛选出较为完整的风压数据,以便更好的对parallel cnn-gru
神经网络模型进行训练,建筑结构包括高层建筑、中层建筑、低层建筑等,在此不做限定。
61.如上述步骤s2所述,目前,基于人工智能的结构缺失数据预测主要包括机器学习和深度学习两类方法。由于风压数据之间具有相关性且时间维度前后具有依赖性,而现有的机器学习方法无法充分考虑风压信号的时间序列和多变量相关特征的提取。传感器所获取的风压信号数据量较多,更适合采用深度学习方法来处理这类具有足够样本且具有局部相关特性的数据集。因此,本技术构建parallel cnn-gru神经网络模型,parallel cnn-gru(并行卷积与门控循环单元网络模型)将单个的卷积神经网络模型(cnn)与单个的门控循环单元模型(gru)并联作为隐藏层,并将对所述原始风压数据进行初步处理作为所述parallel cnn-gru神经网络模型的输入层,将单个的卷积神经网络模型(cnn)与单个的门控循环单元模型(gru)输出的数据经过的第二卷积层、第二池化层、第二dropout层和第二全连接层,作为parallel cnn-gru神经网络模型的输出层,相比单一、串行等传统神经网络模型,能够使得数据流在通过cnn层后不会导致数据的部分时间相关特性丢失,实现缺失数据的高效预测。
62.如上述步骤s3所述,其为parallel cnn-gru神经网络模型的学习过程,即,将原始风压数据经过预处理、数据增强后,划分为训练集数据、验证集数据和测试集数据,将训练集数据输入至构建的parallel cnn-gru神经网络模型以对模型进行训练,然后通过验证集数据对parallel cnn-gru神经网络模型模型进行优化,优化后的parallel cnn-gru神经网络模型模型继续训练验证,直到满足精度要求(输出的数据与原始风压数据在误差范围内)后,将测试集数据输入对优化后的parallel cnn-gru神经网络模型模型进行测试,最终得到训练完成的parallel cnn-gru神经网络模型。
63.如上述步骤s4所述,其为parallel cnn-gru神经网络模型的工作过程,即,采集建筑结构的实时风压数据,将所述实时风压数据输入所述训练完成的parallel cnn-gru神经网络模型,在parallel cnn-gru神经网络模型的输入层中经过预处理、数据增强操作后进入隐藏层,cnn模型用于提取空间特征,gru用于提取时间特征。cnn模型的隐藏层包括卷积层用于特征提取、池化层用于特征降维、dropout层防止过拟合问题,最后由全连接层输出cnn重要的空间特征;gru模型的隐藏层为重置门与更新门,重置门用于捕捉短期时序特征,更新门用于捕捉长期时序特征,最后将获取的时序特征输出;单个cnn与gru并行神经网络模型,并行以防止cnn过滤掉某些空间特征属性,gru解决了一般的rnn存在的长期依赖问题。将时间特征和空间特征进行融合后形成拼接特征,再经过parallel cnn-gru神经网络模型输出层的池化降维、dropout防止过拟合后由全连接层输出完整风压数据,完整的风压数据中包括了缺失的数据,实现了缺失数据的高效预测,有效解决了传统模型存在的问题。
64.在一个实施例中,所述构建parallel cnn-gru神经网络模型的步骤,包括:
65.s21、确定cnn神经网络模型的隐藏层,所述cnn神经网络模型的隐藏层包括第一卷积层、第一池化层、第一dropout层和第一全连接层;
66.s22、确定gru神经网络模型的隐藏层,所述gru神经网络模型的隐藏层包括重置门和更新门;
67.s23、将所述cnn神经网络模型的隐藏层与所述gru神经网络模型的隐藏层并联形成所述parallel cnn-gru神经网络模型的隐藏层;
68.s24、确定所述parallel cnn-gru神经网络模型的第二卷积层、第二池化层、第二
dropout层和第二全连接层,作为所述parallel cnn-gru神经网络模型的输出层;
69.s25、将对所述原始风压数据进行初步处理作为所述parallel cnn-gru神经网络模型的输入层;
70.s26、所述输入层、隐藏层和输出层组成所述parallel cnn-gru神经网络模型。
71.如上述步骤s21-s26所述,构建parallel cnn-gru神经网络模型的步骤即说明了parallel cnn-gru神经网络模型的构成,parallel cnn-gru神经网络模型并联单个的cnn(卷积神经网络模型)和单个的gru(门控循环单元模型),包括输入层、隐藏层和输出层,本技术的parallel cnn-gru神经网络模型结构简单且计算要求低,模型训练所需数据样本较少,有效缩短了模型的计算时长;且模型的尺寸较小,对计算机的计算能力要求不高。如图2所示,输入层对原始风压数据进行初步处理,包括预处理(归一化、降噪)和数据增强,在模型训练的过程中在数据增强后需要对数据进行划分(划分为训练集数据、验证集数据和测试集数据),以便对模型进行训练;在运用训练完成的模型进行风压数据预测时数据增强后则直接进入parallel cnn-gru神经网络模型的隐藏层。如图3所述,parallel cnn-gru神经网络模型的隐藏层并联单个的cnn(卷积神经网络模型)和单个的gru(门控循环单元模型),其中,如图3左侧所示,cnn(卷积神经网络模型)的隐藏层包括卷积层、池化层、dropout层和全连接层,卷积层用于特征提取、池化层用于特征降维、dropout层防止过拟合问题、最后由全连接层输出空间特征;如图3右侧所示,gru(门控循环单元模型)的隐藏层包括重置门和更新门,能够捕捉短期和长期的时序关系,重置门用于捕捉短期时序特征,更新门用于捕捉长期时序特征,最终得到时间特征。如图4所示,parallel cnn-gru神经网络模型的输出层包括卷积层、池化层、dropout层和全连接层,在时间特征和空间特征拼接后,利用池化层再次进行特征筛选,以实现融合数据的降维,droupout层用于控制预测过程中的过拟合现象,再通过全连接层输出缺失的风压数据,通过最终预测出的缺失的风压数据与原始风压数据进行对比来判断parallel cnn-gru神经网络模型可靠性。
72.在一个实施例中,所述利用所述原始风压数据对所述parallel cnn-gru神经网络模型进行训练,得到训练完成的parallel cnn-gru神经网络模型的步骤包括:
73.s31、利用所述parallel cnn-gru神经网络模型的输入层对所述原始风压数据进行初步处理,得到目标风压数据;其中,所述初步处理包括预处理、数据增强;
74.s32、将所述目标风压数据划分为训练集数据、验证集数据和测试集数据;
75.s33、将所述训练集数据输入所述parallel cnn-gru神经网络模型的隐藏层,得到空间特征和时间特征;
76.s34、将所述空间特征和时间特征进行拼接形成拼接特征,并通过所述parallel cnn-gru神经网络模型的输出层得到结果风压数据;
77.s35、利用所述验证集数据对所述parallel cnn-gru神经网络模型进行优化;
78.s36、利用所述测试集数据对优化后的parallel cnn-gru神经网络模型进行测试,得到所述训练完成的parallel cnn-gru神经网络模型。
79.如上述步骤s31-s36所述,其说明了parallel cnn-gru神经网络模型的学习过程,即,利用parallel cnn-gru神经网络模型的输入层对所述原始风压数据进行初步处理,得到目标风压数据;初步处理包括预处理和数据增强,其中,预处理又包括归一化、降噪的处理方式;归一化主要是为了数据处理方便,即把数据映射到0~1范围之内处理,更加便捷快
速,归到数字信号处理范畴之内;降噪包括分箱、聚类、计算机和人工检查结合、回归,其中分箱又包括等深分箱法、等宽分箱法、最小熵法和用户自定义区间法,在实际运用过程中合理选择合适的降噪方式即可,在此不做限定。数据增强的作用为避免过拟合、提升模型鲁棒性、增加训练数据、提高模型泛化能力、避免样本不均衡,在模型训练的过程中还能够起到获取更多训练样本的作用,以确保模型后续预测的有效性。数据增强的方式包括空间变换、颜色失真、信息丢弃,在实际运用过程中合理选择合适的数据增强方式即可,在此不做限定。
80.将目标风压数据划分为训练集数据、验证集数据和测试集数据;训练集数据通过parallel cnn-gru神经网络模型的隐藏层,由单个的cnn(卷积神经网络模型)和单个的gru(门控循环单元模型)得到空间特征和时间特征,进入parallel cnn-gru神经网络模型的输出层,空间特征和时间特征进行拼接形成拼接特征,利用池化层再次进行特征筛选,只选取重要的维度,以实现融合数据的降维,droupout层用于控制预测过程中的过拟合现象,再通过全连接层输出结果风压数据,对比生成的数据与原始数据确定神经元的权重和偏置参数。结果风压数据包括了缺失的风压数据,根据结果风压数据与原始风压数据的比对结果利用验证集数据对所述parallel cnn-gru神经网络模型的模型参数进行优化,优化目的是以精确神经元的权重和偏置参数,重复训练-优化的过程,直到满足精度要求(输出的数据与原始风压数据在误差范围内)后,利用测试集数据对优化后的parallel cnn-gru神经网络模型进行测试以获取模型的参数,最终得到所述训练完成的parallel cnn-gru神经网络模型。
81.在一个实施例中,所述将所述训练集数据输入所述parallel cnn-gru神经网络模型的隐藏层,得到空间特征和时间特征的步骤,包括:
82.s331、所述parallel cnn-gru神经网络模型中cnn神经网络模型的第一卷积层用于提取初始空间特征;
83.s332、所述初始空间特征经过所述cnn神经网络模型的第一池化层、第一dropout层后,通过第一全连接层输出所述空间特征;
84.s333、所述parallel cnn-gru神经网络模型中gru神经网络模型的重置门用于捕捉短期时序特征,更新门用于捕捉长期时序特征;
85.s334、将所述短期时序特征和所述长期时序特征组合形成所述时间特征。
86.如上述步骤s331-s334所述,确定了parallel cnn-gru神经网络模型隐藏层中每一层的作用,cnn神经网络模型的第一卷积层用于初始空间特征提取,然后经过池化层进行特征降维,dropout层防止过拟合问题,最后由全连接层输出空间特征,gru(门控循环单元模型)的隐藏层包括重置门和更新门能够捕捉短期和长期的时序关系,重置门用于捕捉短期时序特征,更新门用于捕捉长期时序特征,将短期时序特征和长期时序特征组合,最终得到时间特征。
87.在一个实施例中,所述利用所述验证集数据对所述parallel cnn-gru神经网络模型进行优化的步骤,包括:
88.s351、将所述结果风压数据与所述原始风压数据进行比对,判断所述结果风压数据与所述原始风压数据的误差是否在设定范围内;
89.s352、若所述结果风压数据与所述原始风压数据的误差是不在设定范围内,则利
用验证集数据对parallel cnn-gru神经网络模型进行优化;
90.s353、返回所述将所述训练集数据输入所述parallel cnn-gru神经网络模型的隐藏层,得到空间特征和时间特征的步骤;
91.s354、若所述结果风压数据与所述原始风压数据的误差是在设定范围内,则完成训练。
92.如上述步骤s351-s353所述,在模型训练时,当原始风压数据输入至parallel cnn-gru神经网络模型后得到结果风压数据,结果风压数据中包括了缺失的风压数据,由于原始风压数据为经过了人为筛选和初步处理,其为完整的风压数据,因而将结果风压数据与原始风压数据进行比对,当结果风压数据与原始风压数据的误差是不在设定范围内,表示parallel cnn-gru神经网络模型的参数不是最优,因而利用验证集数据对parallel cnn-gru神经网络模型进行优化,在优化后返回将所述训练集数据输入所述parallel cnn-gru神经网络模型的隐藏层,得到空间特征和时间特征的步骤,第二次得到结果风压数据,在将第二次得到的结果风压数据与原始风压数据进行比对,如此重复训练-优化的过程,直到结果风压数据与原始风压数据的误差是在设定范围内时,完成训练;最后利用测试集数据对优化后的parallel cnn-gru神经网络模型进行测试以获取模型的参数,最终得到所述训练完成的parallel cnn-gru神经网络模型。
93.在一个实施例中,所述采集建筑结构的实时风压数据,并将所述实时风压数据输入所述训练完成的parallel cnn-gru神经网络模型,得到所述建筑结构的完整风压数据的步骤,包括:
94.s41、采集建筑结构的实时风压数据;
95.s42、利用所述训练完成的parallel cnn-gru神经网络模型的输入层对所述原始风压数据依次进行归一化、降噪、数据增强处理;
96.s43、将所述实时风压数据输入所述训练完成的parallel cnn-gru神经网络模型的隐藏层,得到空间特征和时间特征;
97.s44、将所述空间特征和时间特征进行拼接形成拼接特征,并通过所述训练完成的parallel cnn-gru神经网络模型的输出层得到完整风压数据。
98.如上述步骤s41-s44所述,其为parallel cnn-gru神经网络模型的工作过程,采集建筑结构的实时风压数据,将实时风压数据输入训练完成的parallel cnn-gru神经网络模型,由于数据之间具有相关性且时间维度前后具有依赖性,而串联网络的单一数据流在通过cnn层后会导致数据的部分时间相关特性丢失,parallel cnn-gru联合神经网络模型通过将cnn、gru的优势结合,有效解决了传统模型存在的问题。parallel cnn-gru神经网络模型的输入层对实时风压数据进行归一化、降噪、数据增强处理后,经过隐藏层的cnn(卷积神经网络模型)和gru(门控循环单元模型)得到空间特征和时间特征,将时间特征和空间特征进行融合后形成拼接特征,再经过parallel cnn-gru神经网络模型输出层的池化降维、dropout防止过拟合后由全连接层输出完整风压数据,完整的风压数据中包括了缺失的数据,实现了缺失数据的高效预测,有效解决了传统模型存在的问题。
99.如图5所述,本发明还提供了一种基于parallel cnn-gru的风压短期预测装置,包括:
100.获取模块1,用于获取建筑结构的原始风压数据;
101.构建模块2,用于构建parallel cnn-gru神经网络模型;
102.训练模块3,用于利用所述原始风压数据对所述parallel cnn-gru神经网络模型进行训练,得到训练完成的parallel cnn-gru神经网络模型;
103.运用模块4,用于采集建筑结构的实时风压数据,并将所述实时风压数据输入所述训练完成的parallel cnn-gru神经网络模型,得到所述建筑结构的完整风压数据。
104.在一个实施例中,构建模块2,包括:
105.第一确定单元,用于确定cnn神经网络模型的隐藏层,所述cnn神经网络模型的隐藏层包括第一卷积层、第一池化层、第一dropout层和第一全连接层;
106.第二确定单元,用于确定gru神经网络模型的隐藏层,所述gru神经网络模型的隐藏层包括重置门和更新门;
107.形成单元,用于将所述cnn神经网络模型的隐藏层与所述gru神经网络模型的隐藏层并联形成所述parallel cnn-gru神经网络模型的隐藏层;
108.第三确定单元,用于确定所述parallel cnn-gru神经网络模型的第二卷积层、第二池化层、第二dropout层和第二全连接层,作为所述parallel cnn-gru神经网络模型的输出层;
109.作为单元,用于将对所述原始风压数据进行初步处理作为所述parallel cnn-gru神经网络模型的输入层;
110.组成单元,用于所述输入层、隐藏层和输出层组成所述parallel cnn-gru神经网络模型。
111.在一个实施例中,训练模块3,包括:
112.利用单元,用于利用所述parallel cnn-gru神经网络模型的输入层对所述原始风压数据进行初步处理,得到目标风压数据;其中,所述初步处理包括预处理、数据增强;
113.划分单元,用于将所述目标风压数据划分为训练集数据、验证集数据和测试集数据;
114.输入单元,用于将所述训练集数据输入所述parallel cnn-gru神经网络模型的隐藏层,得到空间特征和时间特征;
115.拼接特征单元,用于将所述空间特征和时间特征进行拼接形成拼接特征,并通过所述parallel cnn-gru神经网络模型的输出层得到结果风压数据;
116.优化单元,用于利用所述验证集数据对所述parallel cnn-gru神经网络模型进行优化;
117.测试单元,用于利用所述测试集数据对优化后的parallel cnn-gru神经网络模型进行测试,得到所述训练完成的parallel cnn-gru神经网络模型。
118.在一个实施例中,输入单元,包括:
119.提取子单元,用于所述parallel cnn-gru神经网络模型中cnn神经网络模型的第一卷积层用于提取初始空间特征;
120.输出子单元,用于所述初始空间特征经过所述cnn神经网络模型的第一池化层、第一dropout层后,通过第一全连接层输出所述空间特征;
121.捕捉子单元,用于所述parallel cnn-gru神经网络模型中gru神经网络模型的重置门用于捕捉短期时序特征,更新门用于捕捉长期时序特征;
122.组合子单元,用于将所述短期时序特征和所述长期时序特征组合形成所述时间特征。
123.在一个实施例中,优化单元,包括:
124.比对子单元,用于将所述结果风压数据与所述原始风压数据进行比对,判断所述结果风压数据与所述原始风压数据的误差是否在设定范围内;
125.利用子单元,用于当所述结果风压数据与所述原始风压数据的误差是不在设定范围内时,利用验证集数据对parallel cnn-gru神经网络模型进行优化;
126.返回子单元,用于返回所述将所述训练集数据输入所述parallel cnn-gru神经网络模型的隐藏层,得到空间特征和时间特征的步骤;
127.完成子单元,用于当所述结果风压数据与所述原始风压数据的误差是在设定范围内时,完成训练。
128.在一个实施例中,运用模块4,包括:
129.采集单元,用于采集建筑结构的实时风压数据;
130.处理单元,用于利用所述训练完成的parallel cnn-gru神经网络模型的输入层对所述原始风压数据依次进行归一化、降噪、数据增强处理;
131.隐藏层输入单元,用于将所述实时风压数据输入所述训练完成的parallel cnn-gru神经网络模型的隐藏层,得到空间特征和时间特征;
132.风压数据输出单元,用于将所述空间特征和时间特征进行拼接形成拼接特征,并通过所述训练完成的parallel cnn-gru神经网络模型的输出层得到完整风压数据。
133.上述各模块、单元、子单元均是用于对应执行上述基于parallel cnn-gru的风压短期预测方法中的各个步骤,其具体实现方式参照上述方法实施例所述,在此不再进行赘述。
134.如图3所示,本发明还提供了一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图3所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储基于parallel cnn-gru的风压短期预测方法的过程需要的所有数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现基于parallel cnn-gru的风压短期预测方法。
135.本领域技术人员可以理解,图3中示出的结构,仅仅是与本技术方案相关的部分结构的框图,并不构成对本技术方案所应用于其上的计算机设备的限定。
136.本技术一实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述任意一个基于parallel cnn-gru的风压短期预测方法。
137.本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储与一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本技术所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(rom)、可编程rom
(prom)、电可编程rom(eprom)、电可擦除可编程rom(eeprom)或闪存。易失性存储器可包括随机存取存储器(ram)或者外部高速缓冲存储器。作为说明而非局限,ram通过多种形式可得,诸如静态ram(sram)、动态ram(dram)、同步dram(sdram)、双速据率sdram(ssrsdram)、增强型sdram(esdram)、同步链路(synchlink)dram(sldram)、存储器总线(rambus)直接ram(rdram)、直接存储器总线动态ram(drdram)、以及存储器总线动态ram(rdram)等。
138.需要说明的是,在本文中,术语“包括”、“包含”或者其任何其它变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其它要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
139.以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1