基于量子加权门限重复单元神经网络的趋势预测方法与流程

文档序号:15230415发布日期:2018-08-21 19:21阅读:148来源:国知局

本发明涉及信息处理技术领域,尤其涉及一种基于量子加权门限重复单元神经网络的趋势预测方法。



背景技术:

旋转机械(如:发动机、汽轮机等)作为在石化、电力、冶金、煤炭、核能等行业中有着广泛应用的关键设备,常常由于出现各种不同形式的故障而影响其正常运转,严重时甚至会引发机毁人亡的事故,造成重大经济损失。将先进的故障诊断技术应用于旋转机械的维护,可起到确保设备安全运行、节约维修费用以及防止环境污染等重要作用,具有巨大的经济效益。

通常,机械设备检修方式大致可分为发生事故停机检修、定期停机检修、视情维修(也称为预测维修)三种。其中,视情维修由于具有后勤保障规模小、经济可承受性好、高效率以及可避免重大灾难性事故等显著优势而具有良好的发展前景。

视情维修要求系统自身具有对设备故障进行预测并对其健康状态进行管理的能力,以实现“经济可承受性”的目标,由此产生了故障预测与健康管理(prognosticandhealthmanagement,phm)的理念,而实现基于视情维修的phm技术的关键在于故障预测。

在大多数的工业phm系统应用中,建立复杂部件或系统的数学或物理模型十分困难甚至无法实现,或识别模型的参数较为复杂,因此,部件或系统设计、仿真、运行和维护等各个阶段的测试、传感器历史数据就成为掌握系统性能下降的主要手段。由此,基于测试或传感器数据的数据驱动(data-driven)预测方法逐渐获得重视并取得快速发展,成为phm领域的重要研究热点。

目前,基于数据驱动的预测方法有随机系数模型,趋势估计和人工智能等方法。特别是基于人工智能的预测方法如自回归(autoregressive,ar)模型,支持向量机(supportvectormachine,svm),人工神经网络(artificialneuralnetwork,ann)等,由于其在生成合适模型方面的灵活性,是当前预测领域中最通用的预测方法。然而,这些预测方法由于各自的缺陷很难得到理想的预测结果。如ar模型容错性较差;基于最小二乘支持向量机核函数及其参数很多情况是人为选定,带有许多不确定性;基于人工神经网络的预测方法中,诸如bp神经网络(back-propagationneuralnetwork,bpnn),循环神经网络(recurrentneuralnetwork,rnn)等经典神经网络,存在学习收敛速度慢、训练困难、网络的学习和记忆具有不稳定性等问题。最近提出的门限重复单元神经网络(gatedrecurrentunitneuralnetwork,grunn),虽克服了rnn梯度消失的缺点,但也存在着训练过程困难,泛化能力不足等问题。

量子计算作为一种极富前景的非线性模型,被认为是改进神经计算的有效途径之一。量子神经网络利用了量子计算的一些优势特别是量子计算的并行计算特性,比经典神经网络具有更强的并行处理能力,并能处理更大的数据集,在数据处理方面具有前所未有的潜在优势。因此,可以通过量子计算与新型神经网络相结合的方式来构建新型量子神经网络,然后将该新型量子神经网络应用于旋转机械预测领域来解决现有预测方法面临的预测精度、计算速度及鲁棒性等问题,从而突破phm技术关键难题。



技术实现要素:

本发明所要解决的技术问题是提供一种预测精度和计算效率高的基于量子加权门限重复单元神经网络的趋势预测方法。

为解决上述技术问题,本发明的技术方案是:基于量子加权门限重复单元神经网络的趋势预测方法,包括以下步骤:

(1)构建门限重复单元模型、具有权值量子位和活性值量子位的加权神经元模型以及量子加权门限重复单元神经网络结构,并由一位相移门来实现权值量子位和活性值量子位的更新,其中,量子加权门限重复单元神经网络简称为qwgrunn;

(2)实时采集监控对象的原始运行数据,作为训练样本和测试样本;

(3)通过小波变换对所述原始运行数据进行降噪处理,从降噪的信号中提取排列熵信息构成排列熵指标集;

(4)对所述排列熵指标集进行归一化操作;

(5)将所述排列熵指标集输入所述qwgrunn完成网络的训练,并用训练好的网络完成对监控对象的运行趋势预测。

(6)对所述qwgrunn输出的预测值进行反归一化操作,得到最终的预测结果。

作为优选的技术方案,步骤(1)具体包括:

(1.1)构建门限重复单元模型,包括输入、输出、待定活性值活性值(h)、更新门(z)和重置门(r),所述门限重复单元模型采用sigmiod(记为σ)和tanh作为激活函数,其中,记t时刻的输入为活性值序列作为该时刻的输出,并记j=1,2,…,p表示任意一个p维向量的第j个元素;

活性值是前一时刻活性值与待定活性值的线性插值:

其中,t=1时,为一个更新门,决定该单元活性值的更新程度。

更新门是t时刻输入值xt与t-1时刻活性值ht-1的线性求和,表达式如下:

其中,wz为p×m阶权值矩阵,uz为p×p阶权值矩阵。

待定活性值则由下式表示:

其中,w为p×m阶权值矩阵,u为p×p阶权值矩阵,是t时刻的重置门集,*表示对应元素相乘;

重置门表达式与更新门类似,有:

其中,wr为p×m阶权值矩阵,ur为p×p阶权值矩阵。

(1.2)构建具有权值量子位和活性值量子位的加权神经元模型,具体如下:记神经元输入向量为x=[x1,x2,…,xm]t,输出实数记为y,|φ>=[|φ1〉,|φ2>,…,|φm>]t表示权向量,其中,权值量子位|φi>=[cosθisinθi]t为m维量子权向量|φ>的第i个元素,i=1,2,...,m,θi表示该量子位的相位);为活性值量子位(ξ为该活性值量子位的相位),量子神经元的输入输出关系可表述为:

当神经元有多个输出,即y=[y1,y2,…,yn]t时,由量子权向量|φ(j)>=[|φ1j>,|φ2j>,…,|φmj>]t组成m×n阶量子位权值矩阵φ|>:

其中,权值量子位|φij>=[cosθij,sinθij]t为量子位权值矩阵|φ>第i行第j列的元素,i=1,2,…,m,j=1,2,…,n,θij表示该量子位的相位;同时,活性值也可表示为:其中,活性值量子位中的第j个元素且j=1,2,…,n,ξj为活性值量子位的相位,结合式(5)、式(6)和式(7)可推导出量子神经元的输入输出关系如下:

其中,w为n×m阶权值矩阵,有:

(1.3)构建量子加权门限重复单元神经网络qwgrunn的结构,具体如下:

设qwgrunn结构为m-p-n,则t时刻的输入层记为隐层记为输出层记为激活函数同gru,为sigmiod(记为σ)和tanh,另外记i=1,2,…,m表示任意一个m维向量的第i个元素;j=1,2,…,p表示p维向量的第j个元素;k=1,2,…,p表示p维向量的第k个元素;l=1,2,…,n表示任意一个n维向量的第l个元素;

结合式(2)、式(6)和式(7)可推导出qwgrunn的更新门如下:

当t=1时,

同理结合式(4)和式(6)可推导重置门如下:

根据式(3)、式(6)和式(9)可表示待定活性值如下:

其中,*表示对应元素相乘;

然后,结合式(1)、式(8)和式(10)可计算活性值:

结合式(6)、式(11)可计算网络输出值如下:

(1.4)通过更新权值量子位和活性量子位来更新qwgrunn网络,具体如下:

记一位相移门记第s次训练中一对权值量子位和活性值量子位分别为|φ(s)>、相应地,其相位分别记为θ(s)、ξ(s),其相位增量分别记为δθ(s)、δξ(s);将修正后的量子位作为下次训练的已知量子位,记为|φ(s+1)>、则权值量子位及活性值量子位修正方式可表示为:

因此,求出量子相移门的相位增量δθ(s)和δξ(s),即可实现权值量子位|φ(s)>和活性值量子位的更新,从而完成本次网络训练并为下次训练做好准备;

同样取i=1,2,…,m;j=1,2,…,p;k=1,2,…,p,l=1,2,…,n。在qwgrunn中,需要更新的权值量子位和活性值量子位有:

用于求解权值矩阵wz的权值量子位|(φwz)ij>和活性值量子位

用于求解权值矩阵uz的权值量子位|(φuz)kj>和活性值量子位

用于求解权值矩阵wr的权值量子位|(φwr)ij>和活性值量子位

用于求解权值矩阵ur的权值量子位|(φur)kj>和活性值量子位

用于求解权值矩阵w的权值量子位|(φw)ij>和活性值量子位

用于求解权值矩阵u的权值量子位|(φu)kj>和活性值量子位

用于求解权值矩阵wy的权值量子位|(φwy)kl>和活性值量子位

其中,权值量子位的下标ij表示m×p阶权值量子位矩阵中的第i行第j列的元素,例如|(φwz)ij>表示权值量子位矩阵|φwz>中第i行第j列的元素,下标kj表示p×p阶量子位矩阵中的第k行第j列的元素,例如|(φuz)jk>表示权值量子位矩阵|φwz>中第k行第j列的元素,下标kl表示p×n阶量子位矩阵中的第k行第l列的元素,例如|(φwy)kl>表示权值量子位矩阵|φwy>中第k行第l列的元素。活性值量子位的下标j均表示任意一个p维量子位向量中的第j个元素。

因此,需要求得的对应的t时刻相位增量δθ(t)和δξ(t)分别有:

权值量子位|(φwz)ij>的相位增量δ(θwz)ij(t),活性值量子位的相位增量δ(ξwz)j(t);

权值量子位|(φuz)kj>的相位增量δ(θuz)kj(t),活性值量子位的相位增量δ(ξuz)j(t);

权值量子位|(φwr)ij>的相位增量δ(θwr)ij(t),活性值量子位的相位增量δ(ξwr)j(t);

权值量子位|(φur)kj>的相位增量δ(θur)kj(t),活性值量子位的相位增量δ(ξur)j(t);

权值量子位|(φw)ij>的相位增量δ(θw)ij(t),活性值量子位的相位增量δ(ξw)j(t);

权值量子位|(φu)kj>的相位增量δ(θu)kj(t),活性值量子位的相位增量δ(ξu)j(t);

权值量子位|(φwy)kl>的相位增量δ(θwy)kl(t),活性值量子位的相位增量δ(ξwy)l(t);

采用梯度下降法求δθ(t)、δξ(t),qwgrunn的逼近误差函数为:

其中,和yk分别表示归一化后的期望输出和实际输出;显然e是关于相位(θwz)ij(t)、(θwr)ij(t)、(θw)ij(t)、(θwy)kl(t)、(θuz)kj(t)、(θur)kj(t)、(θu)kj(t)、(ξwz)j(t)、(ξwr)j(t)、(ξw)j(t)、(ξwy)l(t)、(ξuz)j(t)、(ξur)j(t)、(ξu)j(t)的一致连续函数;

定义动态学习速率表达式如下:

其中:α是学习效率,e时自然常数,r为动态收敛因子且r∈(0,1);

根据梯度下降法,相位增量δθ(t)与δξ(t)分别由如下两式分别得出:

分别将相位(θwz)ij(t)、(θwr)ij(t)、(θw)ij(t)、(θwy)kl(t)、(θuz)kj(t)、(θur)kj(t)、(θu)kj(t)作为自变量代入式(17)可求得对应的相位增量δ(θwz)ij(t)、δ(θwr)ij(t)、δ(θw)ij(t)、δ(θwy)kl(t)、δ(θuz)kj(t)、δ(θur)kj(t)、δ(θu)kj(t);

同理,将相位(ξwz)j(t)、(ξwr)j(t)、(ξw)j(t)、(ξwy)l(t)、(ξuz)j(t)、(ξur)j(t)、(ξu)j(t)作为自变量代入式(18)可以求得对应的相位增量δ(ξwz)j(t)、δ(ξwr)j(t)、δ(ξw)j(t)、δ(ξwy)l(t)、δ(ξuz)j(t)、δ(ξur)j(t)、δ(ξu)j(t);

将相位增量δ(θwz)ij(t)、δ(θwr)ij(t)、δ(θw)ij(t)、δ(θwy)kl(t)、δ(θuz)kj(t)、δ(θur)kj(t)、δ(θu)kj(t)以及相位增量δ(ξwz)j(t)、δ(ξwr)j(t)、δ(ξw)j(t)、δ(ξwy)l(t)、δ(ξuz)j(t)、δ(ξur)j(t)、δ(ξu)j(t)分别带入式(13)和式(14),实现权值量子位和活性值量子位的更新。

作为优选的技术方案,步骤(3)包括以下步骤:

(3.1)将小波降噪后的信号构成的离散时间序列{x(i),i=1,2,…,n}进行相空间重构,得到重构矩阵r如下式:

式中:k=n-(d-1)τ,j=1,2,…,k,d为嵌入维数,τ为延迟时间;

(3.2)然后将重构矩阵r中的行向量r(j)=[x(j),x(j+τ),…,x(j+(d-1)τ)]按照升序排列,得到一组新的符号序列:s(g)={j1,j2,…,jd},其中g=1,2,…,k≤d!;d维相空间映射不同的符号序列{j1,j2,…,jd}总共有d!,s(g)是d!种符号序列中的一种;

(3.3)记t=d!,统计每种符号序列出现的次数,记为{n1,n2,…,nt},然后计算每一种符号序列出现的概率n=1,2,…t;

(3.4)经小波降噪后的信号构成的离散时间序列{x(i),i=1,2,…,n}的排列熵如下式:

作为优选的技术方案,步骤(5)具体包括:

(5.1)量子加权门限循环单元神经网络qwgrunn的训练过程具体包括:从排列熵指标集中取s={xl,xl+1,...,xm}作为训练集,将该指标集组装成qwgrunn的输入xtrain和输出ytrain,表达式如下:

ytrain=[xl+kxl+k+1…xm]

其中,l为数据起始点,k(<m-l)为qwgrunn的输入维数,训练样本对数为m-k-l+1;

将xtrain和ytrain分别作为qwgrunn的输入和输出,完成qwgrunn的训练;

(5.2)量子加权门限循环单元神经网络qwgrunn预测过程具体包括:

所述排列熵指标集通过qwgrunn网络充分训练后,保持权值量子位和活性值量子位不变,采用循环迭代的方法进行下一歩预测:首先,将训练集后k个样本{xm-k+1,xm-k+2,…,xm}作为qwgrunn初始输入,输出m+1时刻预测值完成第一步预测;然后由{xm-k+2,xm-k+3,…,xm+1}组成qwgrunn的输入来计算下一时刻预测值完成第二步预测;以此类推,向qwgrunn输入{xm+n-k,xm+n-k+1,…,xm+n-1},可得到n时刻预测值完成第n步预测。

由于采用了上述技术方案,本发明的有益效果是:本发明提出了一种新型量子神经网络—量子加权门限重复单元神经网络(quantumweightedgatedrecurrentunitneuralnetworks,简称qwgrunn)。该量子神经网络引入量子位表示网络权值和活性值,构造量子相移门权值矩阵并通过门参数的修正实现权值量子位和活性值量子位的更新,并将上下文单元的权值扩展到隐层权值矩阵,在与隐层权值同步更新过程中获取时间序列的额外信息,改善了网络泛化能力,进而提高了所提出的性态退化趋势预测方法的预测精度;采用与自身结构相适应的动态学习参数,改善了网络收敛速度,进而提高了所提出的预测方法的计算效率。

在此基础上,本发明提出了基于量子加权门限循环单元神经网络(qwgrunn)的趋势预测方法,预测精度和计算效率高。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1是本发明实施例中的门限重复单元模型的拓扑图;

图2是本发明实施例中的量子加权神经元的拓扑图;

图3是本发明实施例的工作流程图;

图4是本发明实施例中1号轴承最后三天排列熵退化指标示意图;

图5是本发明实施例中预测曲线与实际曲线的示意图;

图6是本发明实施例中四种神经网络的逼近误差曲线的示意图;

图7是本发明实施例中反向传播神经网络(backpropagationneuralnetwork,简称bpnn)预测值与实际值对比结果示意图;

图8是本发明实施例中循环神经网络(recurrentneuralnetwork,简称rnn)预测值与实际值对比结果示意图;

图9是本发明实施例中门限循环单元神经网络(gatedrecurrentunitneuralnetworks,简称grunn)预测值与实际值对比结果示意图;

图10是本发明实施例中最小二乘支持向量机(leastsquaressupportvectormachines,简称ls-svm)预测值与实际值对比结果示意图;

图11是本发明实施例中五种性态退化趋势预测方法消耗时间对比结果示意图。

具体实施方式

如图1至图3共同所示,基于量子加权门限重复单元神经网络的趋势预测方法,包括以下步骤:

(1)构建门限重复单元模型、具有权值量子位和活性值量子位的加权神经元模型以及量子加权门限重复单元神经网络结构,并由一位相移门来实现权值量子位和活性值量子位的更新,其中,量子加权门限重复单元神经网络的简称为qwgrunn;

(2)实时采集监控对象的原始运行数据,作为训练样本和测试样本;

(3)通过小波变换对所述原始运行数据进行降噪处理,从降噪的信号中提取排列熵信息构成排列熵指标集;

(4)对所述排列熵指标集进行归一化操作;

(5)将所述排列熵指标集输入所述qwgrunn完成网络的训练,并用训练好的网络完成对监控对象的运行趋势预测。

(6)对所述qwgrunn输出的预测值进行反归一化操作,得到最终的预测结果。

其中,步骤(1)具体包括:

(1.1)构建门限重复单元模型,包括输入、输出、待定活性值活性值(h)、更新门(z)和重置门(r),所述门限重复单元模型采用sigmiod(记为σ)和tanh作为激活函数,其中,记t时刻的输入为活性值序列作为该时刻的输出,并记j=1,2,…,p表示任意一个p维向量的第j个元素;

活性值是前一时刻活性值与待定活性值的线性插值:

其中,t=1时,为一个更新门,决定该单元活性值的更新程度。

更新门是t时刻输入值xt与t-1时刻活性值ht-1的线性求和,表达式如下:

其中,wz为p×m阶权值矩阵,uz为p×p阶权值矩阵。

待定活性值则由下式表示:

其中,w为p×m阶权值矩阵,u为p×p阶权值矩阵,是t时刻的重置门集,*表示对应元素相乘;

重置门表达式与更新门类似,有:

其中,wr为p×m阶权值矩阵,ur为p×p阶权值矩阵。

(1.2)构建具有权值量子位和活性值量子位的加权神经元模型,具体如下:记神经元输入向量为x=[x1,x2,…,xm]t,输出实数记为y,|φ>=[|φ1>,|φ2>,…,|φm>]t表示权向量,其中,权值量子位|φi>=[cosθisinθi]t为m维量子权向量|φ>的第i个元素,i=1,2,...,m,θi表示该量子位的相位);为活性值量子位(ξ为该活性值量子位的相位),量子神经元的输入输出关系可表述为:

当神经元有多个输出,即y=[y1,y2,…,yn]t时,由量子权向量|φ(j)>=[|φ1j>,|φ2j>,…,|φmj>]t组成m×n阶量子位权值矩阵|φ>:

其中,权值量子位|φij>=[cosθij,sinθij]t为量子位权值矩阵|φ>第i行第j列的元素,i=1,2,…,m,j=1,2,…,n,θij表示该量子位的相位;同时,活性值也可表示为:其中,活性值量子位中的第j个元素且j=1,2,…,n,ξj为活性值量子位的相位,结合式(5)、式(6)和式(7)可推导出量子神经元的输入输出关系如下:

其中,w为n×m阶权值矩阵,有:

(1.3)构建量子加权门限重复单元神经网络qwgrunn结构,具体如下:

设qwgrunn结构为m-p-n,则t时刻的输入层记为隐层记为输出层记为激活函数同gru,为sigmiod(记为σ)和tanh,另外记i=1,2,…,m表示任意一个m维向量的第i个元素;j=1,2,…,p表示p维向量的第j个元素;k=1,2,…,p表示p维向量的第k个元素;l=1,2,…,n表示任意一个n维向量的第l个元素;

结合式(2)、式(6)和式(7)可推导出qwgrunn的更新门如下:

当t=1时,

同理结合式(4)和式(6)可推导重置门如下:

根据式(3)、式(6)和式(9)可表示待定活性值如下:

其中,*表示对应元素相乘;

然后,结合式(1)、式(8)和式(10)可计算活性值:

结合式(6)、式(11)可计算网络输出值如下:

(1.4)通过更新权值量子位和活性量子位来更新qwgrunn网络,具体如下:

记一位相移门记第s次训练中一对权值量子位和活性值量子位分别为|φ(s)>、相应地,其相位分别记为θ(s)、ξ(s),其相位增量分别记为δθ(s)、δξ(s);将修正后的量子位作为下次训练的已知量子位,记为|φ(s+1)>、则权值量子位及活性值量子位修正方式可表示为:

因此,求出量子相移门的相位增量δθ(s)和δξ(s),即可实现权值量子位|φ(s)>和活性值量子位的更新,从而完成本次网络训练并为下次训练做好准备;

同样取i=1,2,…,m;j=1,2,…,p;k=1,2,…,p,l=1,2,…,n。在qwgrunn中,需要更新的权值量子位和活性值量子位有:

用于求解权值矩阵wz的权值量子位|(φwz)ij>和活性值量子位

用于求解权值矩阵uz的权值量子位|(φuz)kj>和活性值量子位

用于求解权值矩阵wr的权值量子位|(φwr)ij>和活性值量子位

用于求解权值矩阵ur的权值量子位|(φur)kj>和活性值量子位

用于求解权值矩阵w的权值量子位|(φw)ij>和活性值量子位

用于求解权值矩阵u的权值量子位|(φu)kj>和活性值量子位

用于求解权值矩阵wy的权值量子位|(φwy)kl>和活性值量子位

其中,权值量子位的下标ij表示m×p阶权值量子位矩阵中的第i行第j列的元素,例如|(φwz)ij>表示权值量子位矩阵|φwz>中第i行第j列的元素,下标kj表示p×p阶量子位矩阵中的第k行第j列的元素,例如|(φuz)jk>表示权值量子位矩阵|φwz>中第k行第j列的元素,下标kl表示p×n阶量子位矩阵中的第k行第l列的元素,例如|(φwy)kl>表示权值量子位矩阵|φwy>中第k行第l列的元素。活性值量子位的下标j均表示任意一个p维量子位向量中的第j个元素。

因此,需要求得的对应的t时刻相位增量δθ(t)和δξ(t)分别有:

权值量子位|(φwz)ij>的相位增量δ(θwz)ij(t),活性值量子位的相位增量δ(ξwz)j(t);

权值量子位|(φuz)kj>的相位增量δ(θuz)kj(t),活性值量子位的相位增量δ(ξuz)j(t);

权值量子位|(φwr)ij>的相位增量δ(θwr)ij(t),活性值量子位的相位增量δ(ξwr)j(t);

权值量子位|(φur)kj>的相位增量δ(θur)kj(t),活性值量子位的相位增量δ(ξur)j(t);

权值量子位|(φw)ij>的相位增量δ(θw)ij(t),活性值量子位的相位增量δ(ξw)j(t);

权值量子位|(φu)kj>的相位增量δ(θu)kj(t),活性值量子位的相位增量δ(ξu)j(t);

权值量子位|(φwy)kl>的相位增量δ(θwy)kl(t),活性值量子位的相位增量δ(ξwy)l(t);

采用梯度下降法求δθ(t)、δξ(t),qwgrunn的逼近误差函数为:

其中,和yk分别表示归一化后的期望输出和实际输出;显然e是关于相位(θwz)ij(t)、(θwr)ij(t)、(θw)ij(t)、(θwy)kl(t)、(θuz)kj(t)、(θur)kj(t)、(θu)kj(t)、(ξwz)j(t)、(ξwr)j(t)、(ξw)j(t)、(ξwy)l(t)、(ξuz)j(t)、(ξur)j(t)、(ξu)j(t)的一致连续函数;

定义动态学习速率表达式如下:

其中:α是学习效率,e时自然常数,r为动态收敛因子且r∈(0,1);

根据梯度下降法,相位增量δθ(t)与δξ(t)分别由如下两式分别得出:

分别将相位(θwz)ij(t)、(θwr)ij(t)、(θw)ij(t)、(θwy)kl(t)、(θuz)kj(t)、(θur)kj(t)、(θu)kj(t)作为自变量代入式(17)可求得对应的相位增量δ(θwz)ij(t)、δ(θwr)ij(t)、δ(θw)ij(t)、δ(θwy)kl(t)、δ(θuz)kj(t)、δ(θur)kj(t)、δ(θu)kj(t);

同理,将相位(ξwz)j(t)、(ξwr)j(t)、(ξw)j(t)、(ξwy)l(t)、(ξuz)j(t)、(ξur)j(t)、(ξu)j(t)作为自变量代入式(18)可以求得对应的相位增量δ(ξwz)j(t)、δ(ξwr)j(t)、δ(ξw)j(t)、δ(ξwy)l(t)、δ(ξuz)j(t)、δ(ξur)j(t)、δ(ξu)j(t);

将相位增量δ(θwz)ij(t)、δ(θwr)ij(t)、δ(θw)ij(t)、δ(θwy)kl(t)、δ(θuz)kj(t)、δ(θur)kj(t)、δ(θu)kj(t)以及相位增量δ(ξwz)j(t)、δ(ξwr)j(t)、δ(ξw)j(t)、δ(ξwy)l(t)、δ(ξuz)j(t)、δ(ξur)j(t)、δ(ξu)j(t)分别带入式(13)和式(14),实现权值量子位和活性值量子位的更新。

步骤(3)包括以下步骤:

(3.1)将小波降噪后的信号构成的离散时间序列{x(i),i=1,2,…,n}进行相空间重构,得到重构矩阵r如下式:

式中:k=n-(d-1)τ,j=1,2,…,k,d为嵌入维数,τ为延迟时间;

(3.2)然后将重构矩阵r中的行向量r(j)=[x(j),x(j+τ),…,x(j+(d-1)τ)]按照升序排列,得到一组新的符号序列:s(g)={j1,j2,…,jd},其中g=1,2,…,k≤d!;d维相空间映射不同的符号序列{j1,j2,…,jd}总共有d!,s(g)是d!种符号序列中的一种;

(3.3)记t=d!,统计每种符号序列出现的次数,记为{n1,n2,…,nt},然后计算每一种符号序列出现的概率

(3.4)经小波降噪后的信号构成的离散时间序列{x(i),i=1,2,…,n}的排列熵如下式:

步骤(5)具体包括:

(5.1)量子加权门限循环单元神经网络qwgrunn的训练过程具体包括:从排列熵指标集中取s={xl,xl+1,...,xm}作为训练集,将该指标集组装成qwgrunn的输入xtrain和输出ytrain,表达式如下:

ytrain=[xl+kxl+k+1…xm]

其中,l为数据起始点,k(<m-l)为qwgrunn的输入维数,训练样本对数为m-k-l+1;

将xtrain和ytrain分别作为qwgrunn的输入和输出,完成qwgrunn的训练;

(5.2)量子加权门限循环单元神经网络qwgrunn预测过程具体包括:

所述排列熵指标集通过qwgrunn网络充分训练后,保持权值量子位和活性值量子位不变,采用循环迭代的方法进行下一歩预测:首先,将训练集后k个样本{xm-k+1,xm-k+2,…,xm}作为qwgrunn初始输入,输出m+1时刻预测值完成第一步预测;然后由{xm-k+2,xm-k+3,…,xm+1}组成qwgrunn的输入来计算下一时刻预测值完成第二步预测;以此类推,向qwgrunn输入{xm+n-k,xm+n-k+1,…,xm+n-1},可得到n时刻预测值完成第n步预测。

本发明应用于滚动轴承机械性态退化趋势预测的实例验证如下:

使用cincinnati大学实测的滚动轴承性态退化数据进行验证,轴承实验台的转轴上安装四个航空用轴承,这些航空轴承为rexnord公司制造的za-2115双列滚子轴承,交流电机通过带传动以2000r/min的恒定转速带动转轴旋转,实验过程中轴承被施加6000lbs的径向载荷。采样频率为20khz,采样长度为20480个点,每隔10min采集一次轴承的振动数据,轴承持续运行直到出现故障。在第二组实验中,实验台运行到第7天时1号轴承出现外圈故障而失效,采用1号轴承采集到的性态退化数据,代入量子加权门限重复单元神经网络进行实例论证。

取1号轴承失效前3天(即最后3天)共计432段的轴承性态退化的振动信号数据,通过小波变换对原始数据进行降噪处理,并从小波重构后的信号中提取排列熵构成性态退化指标集如图4所示。其中排列熵嵌入维数d=5,延迟时间τ=3。

由图4可知,在第97点处出现明显下降,表明该轴承处于退化初始阶段,从第152点开始出现明显不规则曲线,表明轴承出现了较大外圈缺陷,在330点以后不规则曲线密集程度明显增多,表明该轴承已出现严重故障,濒临失效。取第101点至330点轴承性态退化数据进行训练与预测,其中第101点至310点作为训练样本(即l=101,m=310),最后20点(即第311点至330点)作为待预测样本,将这些排列熵指标集输入qwgrunn分别用来训练和预测。

在qwgrunn中,输入维数k=5,训练对数m-l-k+1=205,预测步数n=20,学习速率为α=0.1,动态收敛因子r=0.25,训练次数取1000次,预测结果如图5所示。

由图5可知,预测曲线与实际曲线走势基本一致,实现了较好的拟合,验证了本申请中提出的基于量子加权门限循环单元神经网络(qwgrunn)应用于的旋转机械性态退化趋势预测的有效性。

通过对比实验数据比较来验证基于量子加权门限循环单元神经网络(qwgrunn)的趋势预测方法应用于旋转机械性态退化趋势预测的优越性。

比较,反向传播神经网络(backpropagationneuralnetwork,简称bpnn)、循环神经网络(recurrentneuralnetwork,简称rnn)、门限循环单元神经网络(gatedrecurrentunitneuralnetworks,简称grunn)、最小二乘支持向量机(leastsquaressupportvectormachines,简称ls-svm)四种神经网络的收敛特性。

各神经网络参数设置保持不变,逼近误差e如式(15),对比结果如图6所示。

随着迭代步数的增加,四种神经网络的逼近误差均不断下降且qwgrrunn的逼近误差下降整体上下降得最快,当迭代步数ns=1000时,bpnn的逼近误差为0.2115,rnn的逼近误差为0.2392,grunn的逼近误差为0.1993,qwgrunn的逼近误差仅为0.1655。通过实验验证和数据比较,qwgrunn具有较快的收敛速度和较高的泛化能力。

对bpnn、rnn、grunn以及ls-svm所得到的性态退化预测精度与qwgrunn所得到的性态退化预测精度进行对比。采用bpnn、rnn、grunn以及ls-svm这四种预测方法的训练次数及预测方式(即输入输出方式)与qwgrunn保持一致,其中bpnn、rnn、grunn这三种神经网络学习速率均取α=0.1,ls-svm选择rbf核函数,且核参数为σ=300,正规化参数γ=300。经bpnn、rnn、grunn以及ls-svm预测得到的滚动轴承性态退化预测结果如图7至图10所示。

为评价预测结果的准确性,采用均方根误差(rmse)作为预测效果的评价指标,即

其中:n是预测点数,yi是实际值,为预测值。

为了更直观且准确地评价各预测方法的预测效果,在qwgrunn、bpnn、rnn、grunn、ls-svm参数设置保持不变的条件下,用这五种预测方法反复进行50次预测,取最小均方根误差emin、最大均方根误差emax、平均均方根误差作为这50次预测的预测误差评价指标,其对比结果如表1所示。

表15种性态退化趋势预测方法的预测误差对比

由图6和表1得出:qwgrunn的平均预测误差较小,且预测误差的波动范围也较小,具有良好的泛化性能,将其用于典型旋转机械——双列滚子轴承的性态退化趋势预测,相较于bpnn、rnn、grunn及ls-svm可以取得更好的预测精度。

最后,对bpnn、rnn、grunn以及ls-svm进行性态退化趋势预测所耗用的计算时间与qwgrunn所耗用的计算时间进行对比,其结果如图11所示,qwgrunn消耗的时间仅为12.19s,bpnn消耗的时间为21.44s,rnn消耗的时间为15.24s,grunn消耗的时间为17.28s,ls-svm消耗的时间为15.56s,因此qwgrunn的网络收敛速度快。

本发明基于量子加权门限循环单元神经网络的趋势预测方法,不仅仅适用于旋转机械性态退化的趋势预测,同样也适用于其他非旋转机械的场合,用于对监控对象运行的趋势进行精确预测。

以上显示和描述了本发明的基本原理、主要特征及本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1