油纸老化模型的训练方法、油纸老化的识别方法及装置与流程

文档序号:30842553发布日期:2022-07-23 01:00阅读:89来源:国知局
油纸老化模型的训练方法、油纸老化的识别方法及装置与流程

1.本技术涉及电力设备安全状态技术领域,特别是涉及一种油纸老化模型的训练方法、油纸老化的识别方法、装置、计算机设备、存储介质和计算机程序产品。


背景技术:

2.变压器是一种不可缺少的核心部件,在电力系统的发展过程中起着重要的作用。准确的诊断绝缘材料的老化程度及对绝缘材料,尤其是准确诊断运行中的电力设备的油纸绝缘状态,才能够确保电网安全操作。油纸老化即为油纸绝缘状态的老化情况,也可以称之为油纸绝缘老化。变压器油纸的绝缘状态受到热量、电、机械作用、化学试剂的影响。人们普遍认为变压器的使用寿命很大程度上取决于变压器的油纸绝缘老化情况。
3.传统方案通常是将变压器中的油纸取出进行聚合度测量,该测量方法准确性较低。


技术实现要素:

4.基于此,有必要针对上述技术问题,提供一种准确性较高用于检测油纸绝缘老化情况的油纸老化模型的训练方法、油纸老化的识别方法、装置、计算机设备、计算机可读存储介质和计算机程序产品。
5.第一方面,本技术提供了一种油纸老化模型的训练方法。该方法包括:获取训练数据,该训练数据包括多个油纸训练样本和多个油纸训练样本分别对应的老化阶段的标签,油纸训练样本包括多个老化阶段的油纸训练样本;利用训练数据,对神经网络模型进行训练,得到目标神经网络模型;该神经网络模型为时间递归型神经网络模型。
6.在其中一个实施例中,在利用训练数据,对神经网络模型进行训练,得到目标神经网络模型时,可以执行下面的步骤:将训练数据代入神经网络模型,通过鲸鱼优化算法调整神经网络模型的参数使得神经网络模型的性能指标达到预设条件,从而得到目标神经网络模型。
7.在其中一个实施例中,性能指标包括均方差,均方差的最小值对应上述预设条件;在将训练数据代入神经网络模型,通过鲸鱼优化算法调整神经网络模型的参数使得神经网络模型的性能指标达到预设条件,从而得到目标神经网络模型时,可以执行下面的步骤:利用上述鲸鱼优化算法计算得到神经网络模型的均方差的最小值;根据均方差的最小值调整神经网络模型的参数,从而得到目标神经网络模型。
8.在其中一个实施例中,上述方法还包括:
9.获取测试数据,测试数据包括油纸测试样本和油纸测试样本对应的老化阶段的标签;
10.将油纸测试样本代入目标神经网络模型,得到油纸测试样本的预测老化阶段;
11.当预测老化阶段与油纸测试样本对应的老化阶段的标签相同时,输出目标神经网络模型;或者
12.当预测老化阶段与油纸测试样本对应的老化阶段的标签不同时,对目标神经网络模型进行训练,得到训练后的目标神经网络模型,以及输出训练后的目标神经网络模型。
13.在其中一个实施例中,在执行上述当预测老化阶段与油纸测试样本对应的老化阶段的标签不同时,对目标神经网络模型进行训练,得到训练后的目标神经网络模型的步骤时,可以包括:
14.利用测试数据对目标神经网络模型进行训练,得到训练后的目标神经网络模型;和/或
15.获取新的训练数据,以及利用新的训练数据对目标神经网络模型进行训练,得到训练后的目标神经网络模型。
16.第二方面,本技术提供了一种油纸老化的识别方法。该方法包括:获取待处理油纸;利用第一神经网络模型对待处理油纸进行识别,得到待处理油纸的老化阶段的识别结果;第一神经网络模型为时间递归型神经网络模型,且第一神经网络模型是利用多个老化阶段的油纸训练样本和多个油纸训练样本分别对应的老化阶段的标签对第一神经网络模型进行训练得到的。
17.上述第一神经网络模型可以是利用第一方面及其任意一种实现方式的方法得到的目标神经网络模型。
18.第三方面,本技术还提供了一种油纸老化的识别模型的训练装置。该装置包括能够实现第一方面及其任意一种实现方式的方法的模块。
19.在其中一个实施例中,该装置包括:
20.获取模块,用于获取训练数据,训练数据包括多个油纸训练样本和多个油纸训练样本分别对应的老化阶段的标签,油纸训练样本包括多个老化阶段的油纸训练样本;
21.训练模块,用于利用训练数据,对神经网络模型进行训练,得到目标神经网络模型,神经网络模型为时间递归型神经网络模型。
22.第四方面,本技术还提供了一种油纸老化的识别装置。该装置包括能够实现第二方面及其任意一种实现方式的方法的模块。
23.在其中一个实施例中,该装置包括:
24.获取模块,用于获取待处理油纸;
25.处理模块,用于利用第一神经网络模型对待处理油纸进行识别,得到待处理油纸的老化阶段的识别结果;第一神经网络模型为时间递归型神经网络模型,且第一神经网络模型是利用多个老化阶段的油纸训练样本和多个油纸训练样本分别对应的老化阶段的标签对第一神经网络模型进行训练得到的。
26.第五方面,本技术还提供了一种计算机设备。该计算机设备包括存储器和处理器,该存储器存储有计算机程序,该处理器执行该计算机程序时实现第一方面或第二方面及其任意一种实现方式的方法。
27.第六方面,本技术还提供了一种计算机可读存储介质。该计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现第一方面或第二方面及其任意一种实现方式的方法。
28.第七方面,本技术还提供了一种计算机程序产品。该计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现第一方面或第二方面及其任意一种实现方式的方
法。
29.上述油纸老化的识别模型的训练方法、油纸老化的识别方法、装置、计算机设备、存储介质和计算机程序产品中,该训练方法是利用多个老化阶段的油纸训练样本训练的,从而具备识别油纸所处的老化阶段的能力,该训练过程是对时间递归型的神经网络模型进行优化训练的,优化后的时间递归型的神经网络模型更契合油纸随着使用时间增长渐渐老化的场景。因此,该训练方法得到的目标神经网络模型对油纸老化的识别会更加准确。
30.上述油纸老化的识别方法则因为运用准确性较高的第一神经网络模型,从而具备更高的识别准确性,且识别过程方便快捷。第一神经网络模型是利用多个老化阶段的油纸训练样本训练得到的,从而具备识别油纸所处的老化阶段的能力,该第一神经网络模型是时间递归型的神经网络模型,更契合油纸随着使用时间增长渐渐老化的场景。因此,该第一神经网络模型对油纸老化的识别会更加准确。因此,利用第一神经网络模型进行识别的时候结果也更准确。
附图说明
31.图1是本技术实施例适用的一种油纸老化实验平台的示意图。
32.图2是本技术实施例的一种油纸老化的识别模型的训练方法的示意图。
33.图3是本技术实施例的一种训练过程的示意图。
34.图4是本技术实施例的一种目标神经网络模型的测试方法的示意图。
35.图5是本技术实施例的一种油纸老化的识别方法的示意图。
36.图6是本技术实施例的拉曼光谱检测平台的示意图。
37.图7是本技术实施例的lstm模型的示意性结构图。
38.图8是本技术实施例的识别结果的示意图。
39.图9至图11是本技术实施例的参数变化示意图。
40.图12是本技术实施例的一种油纸老化的识别模型的训练装置的示意图。
41.图13是本技术实施例的一种油纸老化的识别装置的示意图。
42.图14本技术实施例的一种计算机设备的内部结构图。
具体实施方式
43.为了使本技术的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本技术进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本技术,并不用于限定本技术。
44.图1是本技术实施例适用的一种油纸老化实验平台的示意图。如图1所示,油纸108和变压器的绕组107浸在绝缘油110中,且外圈设有带孔笼子109。老化罐106中容纳了上述油纸108、绕组107、带孔笼子109和绝缘油110。老化罐106被放置在老化箱112中,老化箱112中容纳了一定体积的加热用油111,用于对上述老化罐106进行油浴加热。通过油阀104、进油泵102和出油泵103的控制,能够控制绝缘油110的量(例如体积、液位或压强)。绝缘油110上方充斥着氮气(图示n2)。循环泵101实现绝缘油110与外界的热交换。气阀105用于控制氮气的量(即体积或气压)。
45.图1所示实验平台能够用于生成训练样本及其标签、测试样本及其标签。
46.在一个实施例中,如图2所示,提供了一种油纸老化模型的训练方法,包括以下步骤:
47.步骤201,获取训练数据。
48.该训练数据包括多个油纸训练样本和多个油纸训练样本分别对应的老化阶段的标签,油纸训练样本包括多个老化阶段的油纸训练样本。
49.在一个实施例中,可以根据下述方法,利用图1所示试验平台得到油纸绝缘老化样本。可以在温度为t的恒温下进行油纸绝缘加速热老化实验。具体实验步骤如下:把经干燥过后的绝缘油和油纸以质量比x1:x2的比例装入老化罐(图1所示老化罐106)中,并放入老化箱(图1所示老化箱112)中进行t1温度的油浴加热。本实验老化时长达到d天,得到了覆盖油纸老化全寿命周期的样本,该全寿命周期的样本可以是分别在第t0,t1,t2,
……
,tn天时取出的多个油纸试样,其中,n为取出的油纸样本的天数编号,因此,n为大于或等于0且小于或等于t的整数。每一天取样共取n1次,共获得n2个老化样本。根据gb/t 29305-2012/iec 60450:2007《新的和老化后的纤维素电气绝缘材料粘均聚合度的测量》导则测出油纸的聚合度;将油纸绝缘老化样本划分为四个老化阶段:绝缘良好、老化前期、老化中期和老化末期。每个老化阶段的聚合度的取值范围可以为:绝缘良好:聚合度≥m1;老化前期:m2≤聚合度<m1;老化中期:m3≤聚合度<m2;老化末期:聚合度<m3,其中,m1、m2和m3为常数,m1》m2》m3。
50.在一些实现方式中,t1=130℃;绝缘油为25号克拉玛依绝缘油;x1=10,x2=1;d=40;t0=0,t1=1,t2=3,t3=5,t4=7,t5=10,t6=14,t7=18,t8=22,t9=26,t10=30,t11=35,t12=40,n=12;n1=20;n2=260;m1=900;m2=500;m3=250。但应理解,上述指示一个具体示例,对于具体数值不存在限定,可以按需选择。
51.上述油纸绝缘老化样本既可以作为步骤201所述油纸老化训练样本也可以作为油纸老化测试样本。在一些实现方式中,上述m1个老化样本将a%的样本作为油纸老化训练样本,将b%的样本作为油纸老化测试样本,a、b为0-100之间的实数,a与b的和不超过100。在一个例子中,a=70,b=30。
52.在一些实现方式中,对上述油纸绝缘老化样本进行光谱检测,得到聚合度,以及根据聚合度确定油纸绝缘老化绝缘样本的老化阶段,该老化阶段即为样本的标签。
53.在一个例子中,可以将油纸绝缘老化样本用拉曼光谱仪进行检测,得到相对应的拉曼光谱图,并完成平滑、归一化等预处理操作;同时,根据相关导则对绝缘纸的聚合度进行测量,得到样本的聚合度。
54.在一个例子中,拉曼光谱检测平台如图6所示。该检测平台包括摄像头、激光器、滤光镜、光谱仪和影像录放机(vcr)。
55.摄像头采集油纸样本的图像,激光器提供激光,该激光通过滤光镜与摄像头相通,并通过摄像头照射到油纸样本上,摄像头采集的油纸样本的图像一路传输到光谱仪,经光谱仪处理后由耦合器(ccd)接收,ccd将光信号转换为电信号,并将电信号传输到电脑;另一路通过vcr处理后,传输到电脑。电脑经过将两路图像进行分析,得到油纸样本的聚合度。由于图6是一种常见,拉曼光谱检测平台的示例,在实际过程中,可以按需选择拉曼光谱设备来实现上述光谱检测的目的,因此,不再详细展开。
56.可以看出,本技术实施例中的训练样本是全参数样本,即覆盖了老化全寿命周期
的样本,因此,利用这样的训练样本训练得到的模型,在识别老化情况时准确性更高。
57.步骤202,利用训练数据,对神经网络模型进行训练,得到目标神经网络模型。
58.该神经网络模型为时间递归型神经网络模型。
59.时间递归型神经网络可以为各类循环神经网络(recurrent neural network,rnn),例如,传统rnn、双向rnn、长短期记忆(long short-term memory,lstm)神经网络或门循环单元(gate recurrent unit,gru)等。rnn是一种特殊的神经网络结构,它是根据"人的认知是基于过往的经验和记忆"这一观点提出的。它与深度神经网络(deep neural network,dnn)、卷积神经网络(convolutional neural network,cnn)不同的是,它不仅考虑前一时刻的输入,而且赋予了网络对前面的内容的一种记忆功能。因此,相比于传统的油纸老化检测方案所采用的误差反向传播算法(error back propagation),或者称之为误差逆传播算法,通常简称为bp算法,或cnn等其他神经网络,时间递归类神经网络更加契合油纸随时间增长不断老化的场景,尤其下一时刻的老化程度会受到历史时刻的老化程度的影响,利用时间递归型神经网络更能准确获知老化情况。
60.在一个实施例中,采用lstm神经网络建立油纸老化的识别模型,该模型属于长短期记忆网络,适合于处理和预测时间序列中间隔和延迟相对较长的特征样本。与传统的rnn不同,lstm网络在重要事件之间存在较大未知延迟时,非常适合通过经验学习对时间序列进行分类、处理和预测。在原rnn的基础上,在lstm神经元中加入输入门、遗忘门、输出门和记忆单元。该方法能有效地解决简单递归神经网络的梯度爆炸或消失问题。
61.在一些实现方式中,lstm模型的结构如图7所示。该模型包括输入层、隐藏层、全连接层、损失函数层和输出层。在本技术实施例中,可以调整隐藏层层数和/或神经元个数、权重等参数。图7中各个圆圈表示神经元。从输入层输入训练样本,从输出层输出训练样本对应的预测结果,以及根据预测结果和训练样本对应的标签之间的误差构造性能指标的损失函数,和以使得性能指标最小为目的去调整模型的各个参数,从而达到训练的目的。应理解,对神经网络模型进行训练等同于更新(调整)神经网络模型的参数。
62.上述油纸老化的识别模型的训练方法中,是利用多个老化阶段的油纸训练样本训练的,从而具备识别油纸所处的老化阶段的能力,该训练过程是对时间递归型的神经网络模型进行训练的,时间递归型的神经网络模型更契合油纸随着使用时间增长渐渐老化的场景。因此,该训练方法得到的目标神经网络模型对油纸老化的识别会更加准确。
63.在其中一个实施例中,步骤202可以包括下面的步骤:将训练数据代入神经网络模型,调整神经网络模型的参数使得神经网络模型的性能指标最优,从而得到目标神经网络模型。
64.在一个实施例中,如图3所示,步骤202包括:
65.步骤301,利用优化算法计算得到神经网络模型的均方差的最小值。
66.可选地,性能指标包括均方差(mean squared error,mse),均方差的最小值对应性能指标达到预设条件。但应理解,该性能指标也可以采用其他统计类参数或损失函数,例如和方差(sum of squares due to error,sse)、标准差(root mean squared error,rmse)或残差等等,不再一一列举。
67.预设条件例如可以是上述性能指标的预设范围,例如可以是均方差、和方差或标准差等在相应的预设范围内。
68.在一些实现方式中,该优化算法可以是鲸鱼优化算法(whale optimization algorithm,woa)。
69.应理解,在本技术实施例中,优化算法可以是鲸鱼优化算法,但也可以采用其他优化算法,例如除鲸鱼优化算法之外的其他元启发式优化算法,或者其他群体智能优化算法。
70.在一个例子中,woa算法优化参数的基本步骤如下:
71.1)参数初始化。设置woa的参数:鲸鱼个数、最大迭代次数、变量维度及变量上限和下限。
72.2)种群初始化。随机初始化所有鲸鱼个体各个维度的位置值,每个鲸鱼个体各个维度的位置值代表输入权值或阈值。
73.3)计算mse值。计算每个鲸鱼个体的mse值。
74.4)更新最优解。寻找每个鲸鱼最优解mse值的位置,并根据该位置更新鲸鱼个体的位置。
75.5)每个鲸鱼个体的位置更新。
76.6)重复步骤3)至5),直到最大迭代次数,得到最佳输入权值和阈值,执行步骤302。
77.步骤302,根据均方差的最小值调整神经网络模型的参数,从而得到目标神经网络模型。
78.神经网络模型的参数可以包括隐藏层神经元个数、学习率或迭代次数等。
79.根据步骤301得到的最小均方差值(即最小mse),调整神经网络模型的参数,从而使得神经网络模型的mse最小。
80.在一个实施例中,利用图3所示方法,以及利用步骤201得到的训练样本对神经网络模型进行训练,得到目标神经网络模型参数如表1所示。woa-lstm表示该模型为lstm模型,训练过程采用的优化算法为woa算法。
81.表1
82.模型woa-lstm隐藏层1神经元个数37隐藏层2神经元个数88学习率0.0018mse值0.0794
83.图8是本技术实施例的识别结果的示意图。如图8所示,隐藏层神经元的个数会影响学习率和诊断正确率(识别结果的正确率)。图9至图11是本技术实施例的参数调整示意图。如图9至图11所示,随着woa算法的迭代次数的增加,神经元个数、学习率、均方差(mse)均发生变化,图9是神经元个数随迭代次数的变化趋势,隐藏层1的神经元个数h1在第15次迭代后大幅下降,从56下降至38;隐藏层2的神经元个数h2在第15次迭代后大幅上升,从38上升至88。图10是学习率随迭代次数的变化趋势,学习率在第15次迭代后大幅下降,从0.00145上升至0.00185。图11是mse随迭代次数的变化趋势,mse的值在第15次迭代后下降,从0.084下降至0.052。应理解,图9至图11是具体示例的参数变化的趋势图,对于不同的具体示例,图9至图11中的具体参数可能不同,但变化趋势基本相同。
84.在一个实施例中,如图4所示,利用油纸老化测试样本对上述得到的目标神经网络模型进行测试。
85.步骤401,获取测试数据。
86.该测试数据包括油纸测试样本和油纸测试样本对应的老化阶段的标签。该测试样本可以从步骤201所述油纸绝缘老化样本中选取。
87.步骤402,将油纸测试样本代入目标神经网络模型,得到油纸测试样本的预测老化阶段。
88.预测老化阶段用于表示利用目标神经网络模型识别(诊断)出的测试样本的老化阶段。
89.步骤403,当预测老化阶段与油纸测试样本对应的老化阶段的标签相同时,输出目标神经网络模型;或者,当预测老化阶段与油纸测试样本对应的老化阶段的标签不同时,对目标神经网络模型进行训练,得到训练后的目标神经网络模型,以及输出训练后的目标神经网络模型。
90.当预测老化阶段与油纸测试样本对应的老化阶段的标签相同时,说明目标神经网络模型的预测是正确的,当预测老化阶段与油纸测试样本对应的老化阶段的标签不同时,说明目标神经网络模型的预测错误。步骤403主要实现了,正确的情况下保持目标神经网络的参数,错误时,利用测试样本再次更新目标神经网络模型的参数(即再次对目标神经网络模型进行训练),提高目标神经网络模型的准确性。
91.在一个实施例中,利用图4所示方法,以及利用目标神经网络模型对步骤201得到的测试样本进行识别,得到测试样本的老化情况的识别结果如表2所示。从表2可以看出,经woa算法优化后的lstm模型对测试样本的每个老化阶段均有较高的识别准确率,对测试样本的综合识别率高达96.25%。因此,该模型的识别能力强,能够实现对油纸绝缘老化阶段的准确、可靠识别。
92.表2
[0093][0094]
图5是本技术实施例的一种油纸老化的识别方法的示意图。图5可以看作是上述得到的目标神经网络模型的应用示例。
[0095]
步骤501,获取待处理油纸。
[0096]
待处理油纸也可以理解为待测试油纸、待检测油纸、待识别油纸,油纸也可以称之为绝缘纸、油性绝缘纸、油性纸或变压器绝缘纸等等。
[0097]
步骤502,利用第一神经网络模型对待处理油纸进行识别,得到待处理油纸的老化
阶段的识别结果。
[0098]
第一神经网络模型为时间递归型神经网络模型,且第一神经网络模型是利用多个老化阶段的油纸训练样本和多个油纸训练样本分别对应的老化阶段的标签对第一神经网络模型进行训练得到的。
[0099]
在一些实现方式中,第一神经网络模型可以为上文训练方法得到的目标神经网络模型或利用测试样本再次训练后的目标神经网络模型。
[0100]
图5所示识别方法相比于传统方案步骤简洁,且由于采用了第一神经网络模型,而第一神经网络模型是利用多个老化阶段的油纸训练样本训练得到的,从而具备识别油纸所处的老化阶段的能力,该第一神经网络模型是时间递归型的神经网络模型,更契合油纸随着使用时间增长渐渐老化的场景。因此,该第一神经网络模型对油纸老化的识别会更加准确。因此,利用第一神经网络模型进行识别的时候结果也更准确。
[0101]
应该理解的是,虽然如上所述的各实施例所涉及的流程图中的各个步骤依次显示,但是这些步骤并不是必然按照图中所示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上所述的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
[0102]
基于同样的发明构思,本技术实施例还提供了一种用于实现上述所涉及的训练方法的训练装置和用于实现上述所涉及的识别方法的识别装置。上述装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个装置实施例中的具体限定可以参见上文中对于方法的限定,在此不再赘述。
[0103]
在一个实施例中,如图12所示,提供了一种油纸老化的识别模型的训练装置。
[0104]
该油纸老化的识别模型的训练装置1000包括:获取模块1001和训练模块1002。
[0105]
该装置1000能够用于执行上文任意一种油纸老化的识别模型的训练方法的步骤。例如,获取模块1001可以用于执行步骤201,训练模块1002可以用于执行步骤202。又例如,训练模块1002还可以用于执行步骤301和步骤302。再例如,获取模块1001可以用于执行步骤401,训练模块1002可以用于执行步骤402和步骤403。
[0106]
可选地,该装置1000还可以包括存储模块,用于存储上述训练样本及其标签。
[0107]
在一个实施例中,如图13所示,提供了一种油纸老化的识别装置。
[0108]
该油纸老化的识别装置2000包括:获取模块2001和处理模块2002。
[0109]
该装置2000能够用于执行上文任意一种油纸老化的识别方法的步骤。例如,获取模块2001可以用于执行步骤501,处理模块2002可以用于执行步骤502。
[0110]
上述装置1000和装置2000中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
[0111]
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图14所示。该计算机设备包括处理器、存储器、输入/输出接口(input/output,简称i/o)和通信接口。其中,处理器、存储器和输入/输出接口通过系统总线连接,通信接口
通过输入/输出接口连接到系统总线。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质和内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储油纸老化训练样本及其标签或油纸老化测试样本及其标签或待处理油纸的光谱图。该计算机设备的输入/输出接口用于处理器与外部设备之间交换信息。该计算机设备的通信接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种油纸老化的识别模型的训练方法或一种油纸老化的识别方法。
[0112]
本领域技术人员可以理解,图14中示出的结构,仅仅是与本技术方案相关的部分结构的框图,并不构成对本技术方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
[0113]
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:获取训练数据,该训练数据包括多个油纸训练样本和多个油纸训练样本分别对应的老化阶段的标签,油纸训练样本包括多个老化阶段的油纸训练样本;利用训练数据,对神经网络模型进行训练,得到目标神经网络模型;该神经网络模型为时间递归型神经网络模型。
[0114]
在一个实施例中,处理器执行计算机程序时还实现以下步骤:将训练数据代入神经网络模型,通过鲸鱼优化算法调整神经网络模型的参数使得神经网络模型的性能指标达到预设条件,从而得到目标神经网络模型。
[0115]
在一个实施例中,性能指标包括均方差,均方差的最小值对应预设条件,处理器执行计算机程序时还实现以下步骤:利用鲸鱼优化算法计算得到神经网络模型的均方差的最小值;根据均方差的最小值调整神经网络模型的参数,从而得到目标神经网络模型。
[0116]
在一个实施例中,处理器执行计算机程序时还实现以下步骤:获取测试数据,测试数据包括油纸测试样本和油纸测试样本对应的老化阶段的标签;将油纸测试样本代入目标神经网络模型,得到油纸测试样本的预测老化阶段;当预测老化阶段与油纸测试样本对应的老化阶段的标签相同时,输出目标神经网络模型;或者当预测老化阶段与油纸测试样本对应的老化阶段的标签不同时,对目标神经网络模型进行训练,得到训练后的目标神经网络模型,以及输出训练后的目标神经网络模型。
[0117]
在一个实施例中,处理器执行计算机程序时还实现以下步骤:利用测试数据对目标神经网络模型进行训练,得到训练后的目标神经网络模型;和/或获取新的训练数据,以及利用新的训练数据对目标神经网络模型进行训练,得到训练后的目标神经网络模型。
[0118]
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:获取待处理油纸;利用第一神经网络模型对待处理油纸进行识别,得到待处理油纸的老化阶段的识别结果;第一神经网络模型为时间递归型神经网络模型,且第一神经网络模型是利用多个老化阶段的油纸训练样本和多个油纸训练样本分别对应的老化阶段的标签对第一神经网络模型进行训练得到的。
[0119]
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:获取训练数据,该训练数据包括多个油纸训练样本和多个油纸训练样本分别对应的老化阶段的标签,油纸训练样本包括多个老化阶段的油纸
训练样本;利用训练数据,对神经网络模型进行训练,得到目标神经网络模型;该神经网络模型为时间递归型神经网络模型。
[0120]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:将训练数据代入神经网络模型,通过鲸鱼优化算法调整神经网络模型的参数使得神经网络模型的性能指标达到预设条件,从而得到目标神经网络模型。
[0121]
在一个实施例中,性能指标包括均方差,均方差的最小值对应性能指标达到预设条件,计算机程序被处理器执行时还实现以下步骤:利用鲸鱼优化算法计算得到神经网络模型的均方差的最小值;根据均方差的最小值调整神经网络模型的参数,从而得到目标神经网络模型。
[0122]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:获取测试数据,测试数据包括油纸测试样本和油纸测试样本对应的老化阶段的标签;将油纸测试样本代入目标神经网络模型,得到油纸测试样本的预测老化阶段;当预测老化阶段与油纸测试样本对应的老化阶段的标签相同时,输出目标神经网络模型;或者当预测老化阶段与油纸测试样本对应的老化阶段的标签不同时,对目标神经网络模型进行训练,得到训练后的目标神经网络模型,以及输出训练后的目标神经网络模型。
[0123]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:利用测试数据对目标神经网络模型进行训练,得到训练后的目标神经网络模型;和/或,获取新的训练数据,以及利用新的训练数据对目标神经网络模型进行训练,得到训练后的目标神经网络模型。
[0124]
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:获取待处理油纸;利用第一神经网络模型对待处理油纸进行识别,得到待处理油纸的老化阶段的识别结果;第一神经网络模型为时间递归型神经网络模型,且第一神经网络模型是利用多个老化阶段的油纸训练样本和多个油纸训练样本分别对应的老化阶段的标签对第一神经网络模型进行训练得到的。
[0125]
在一个实施例中,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:获取训练数据,该训练数据包括多个油纸训练样本和多个油纸训练样本分别对应的老化阶段的标签,油纸训练样本包括多个老化阶段的油纸训练样本;利用训练数据,对神经网络模型进行训练,得到目标神经网络模型;该神经网络模型为时间递归型神经网络模型。
[0126]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:将训练数据代入神经网络模型,通过鲸鱼优化算法调整神经网络模型的参数使得神经网络模型的性能指标达到预设条件,从而得到目标神经网络模型。
[0127]
在一个实施例中,性能指标包括均方差,均方差的最小值对应性能指标达到预设条件,计算机程序被处理器执行时还实现以下步骤:利用鲸鱼优化算法计算得到神经网络模型的均方差的最小值;根据均方差的最小值调整神经网络模型的参数,从而得到目标神经网络模型。
[0128]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:获取测试数据,测试数据包括油纸测试样本和油纸测试样本对应的老化阶段的标签;将油纸测试样本代入目标神经网络模型,得到油纸测试样本的预测老化阶段;当预测老化阶段与油纸测试样本对应的老化阶段的标签相同时,输出目标神经网络模型;或者当预测老化阶段与油纸测试样
本对应的老化阶段的标签不同时,对目标神经网络模型进行训练,得到训练后的目标神经网络模型,以及输出训练后的目标神经网络模型。
[0129]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:利用测试数据对目标神经网络模型进行训练,得到训练后的目标神经网络模型;和/或获取新的训练数据,以及利用新的训练数据对目标神经网络模型进行训练,得到训练后的目标神经网络模型。
[0130]
在一个实施例中,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:获取待处理油纸;利用第一神经网络模型对待处理油纸进行识别,得到待处理油纸的老化阶段的识别结果;第一神经网络模型为时间递归型神经网络模型,且第一神经网络模型是利用多个老化阶段的油纸训练样本和多个油纸训练样本分别对应的老化阶段的标签对第一神经网络模型进行训练得到的。
[0131]
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本技术所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(read-only memory,rom)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(reram)、磁变存储器(magnetoresistive random access memory,mram)、铁电存储器(ferroelectric random access memory,fram)、相变存储器(phase change memory,pcm)、石墨烯存储器等。易失性存储器可包括随机存取存储器(random access memory,ram)或外部高速缓冲存储器等。作为说明而非局限,ram可以是多种形式,比如静态随机存取存储器(static random access memory,sram)或动态随机存取存储器(dynamic random access memory,dram)等。本技术所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本技术所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
[0132]
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
[0133]
以上所述实施例仅表达了本技术的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本技术专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本技术构思的前提下,还可以做出若干变形和改进,这些都属于本技术的保护范围。因此,本技术的保护范围应以所附权利要求为准。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1