一种基于双隐层量子线路循环单元神经网络的趋势预测方法与流程

文档序号:18950756发布日期:2019-10-23 02:11阅读:255来源:国知局
一种基于双隐层量子线路循环单元神经网络的趋势预测方法与流程

本发明涉及神经网络技术领域,尤其涉及一种基于双隐层量子线路循环单元神经网络的趋势预测方法。



背景技术:

旋转机械(如:发动机、汽轮机等)作为在石化、电力、冶金、煤炭、核能等行业中有着广泛应用的关键设备,常常因出现各种不同形式的故障而影响其正常运转,严重时甚至会引发机毁人亡的重大事故。将先进的故障诊断技术应用到旋转机械上,可起到确保设备安全运行、节约维修费用以及防止环境污染等关键作用,具有巨大的经济效益。

通常,机械设备检修方式可分为发生事故停机检修、定期停机检修、视情维修(也称为预测维修)三种。其中,视情维修由于具有后勤保障规模小、经济可承受性好、高效率以及可避免重大灾难性事故等显著优势而具有良好的发展前景。

视情维修要求系统自身具有对设备故障进行预测并对其健康状态进行管理的能力,以实现“经济可承受性”的目标,由此产生了故障预测与健康管理(prognosticandhealthmanagement,phm)的理念,而实现基于视情维修的phm技术的关键在于故障预测。

在大多数的工业phm系统中,建立复杂部件或系统的数学或物理模型十分困难甚至无法实现,或识别模型的参数较为复杂,因此,部件或系统设计、仿真、运行和维护等各个阶段的测试、传感器历史数据就成为掌握系统性能下降的主要手段。由此,基于测试或传感器数据的数据驱动(data-driven)预测方法逐渐获得重视并取得快速发展,成为phm领域的重要研究热点。

目前,基于数据驱动的预测方法有随机系数模型,趋势估计和人工智能等方法。特别是基于人工智能的预测方法如支持向量机(supportvectormachine,svm),模糊逻辑(fuzzylogic,fl)模型,人工神经网络(artificialneuralnetwork,ann)等,由于其在生成合适模型方面的灵活性,受到了广泛的关注与欢迎。然而,这些预测方法由于各自的缺陷很难得到理想的预测结果。比如支持向量机核函数及其参数很多情况是人为选定,带有许多不确定性;模糊逻辑具有与svm类似的问题;基于人工神经网络的预测方法中,诸如bp神经网络(back-propagationneuralnetwork,bpnn),循环神经网络(recurrentneuralnetwork,rnn)等经典神经网络,存在学习收敛速度慢、训练困难、网络的学习和记忆具有不稳定性等问题,而elman神经网络(elmanneuralnetwork,elman-nn)和长短时记忆神经网络(longshorttermmemoryneuralnetwork,lstmnn)等rnn的变体,由于它们自身理论和结构上的缺陷,仍然难以做出准确预测。

量子计算作为一种极富前景的非线性模型,被认为是改进神经计算的有效途径之一。量子神经网络利用了量子计算的一些优势特别是其并行计算特性,比经典神经网络具有更强的并行处理能力,并且在数据处理方面具有前所未有的潜在优势。因此,可以通过量子计算与新型神经网络相结合的方式来构建新型量子神经网络,然后将该新型量子神经网络应用于旋转机械预测领域来解决现有预测方法面临的预测精度和计算速度等问题,从而突破phm技术关键难题。



技术实现要素:

本发明所要解决的技术问题是提供一种预测精度高且网络收敛速度快的基于双隐层量子线路循环单元神经网络的趋势预测方法。

为解决上述技术问题,本发明的技术方案是:一种基于双隐层量子线路循环单元神经网络的趋势预测方法,包括以下步骤:

s1:采集监控对象的原始运行数据构建排列熵集;

s2:将所述排列熵集输入双隐层量子线路循环单元神经网络进行训练和预测,得到预测的排列熵集;

s3:计算各时间点实际的排列熵和预测的排列熵之间的误差,构建排列熵误差集;

s4:将所述排列熵误差集归一化处理后,输入双隐层量子线路循环单元神经网络进行训练和预测,得到预测的归一化的排列熵误差集;

s5:将预测的归一化的排列熵误差集进行反归一化处理,得到最终预测结果;

所述方法,还包括:在步骤s2之前,构建双隐层量子线路循环单元神经网络,其中,双隐层量子线路循环单元神经网络简称为dhl-qcrunn,具体步骤如下:

s21:创建量子相移门模型,得出量子比特经过相移门变换后最新状态与初始状态之间的关系,具体如下:

记量子相移门为令量子比特的初始状态则|φ0>可通过r(θ)进行如下变换:

式中|φ′0>表示经过相移变换后的最新状态;

s22:创建多位受控非门模型,得出在多个控制量子比特的联合控制下的目标量子比特的输出,具体如下:

在量子系统中,单个量子比特的状态受多个量子比特的联合控制的动态行为,以多位受控非门cn(x)来描述,其中,|x1>,|x2>,…|xn>是控制比特,是输入目标比特,|φ>是输出目标比特。cn(x)的计算规则定义如下:

式中,是单比特量子非门;x的指数表示x1,x2,…,xn的积,若前n个量子比特全为1,即|xi>=|1>,则单比特量子非门x作用到使其翻转得到|φ>;

设控制量子比特为|xi>=αi|0>+βi|1>,目标量子比特输入态为则经过cn(x)变换后的输出推导如下:

式中,αi2+βi2=1;表示张量积;

由式(3)可知,cn(x)的输出处于n+1个量子比特的纠缠态中,|φ>处于状态|1>的概率为:

因此,在n个控制比特的联合控制下输出目标比特|φ>可以表示为:

式中为|φ>的相位

s23:由量子相移门和多位受控非门来创建量子线路循环单元,设定是t时刻的控制量子比特,是t时刻的目标量子比特输入态,是第i个量子相移门的相位,|φt>是t时刻的目标量子比特输出态,则在量子线路循环单元中,将目标量子比特输出态|φt>作为下一时刻的目标量子比特输入,即实现对输入序列的历史记忆,具体如下:

令t=1,2,…,t表示t个采样时间点,可表示为:

目标量子比特输出态|φt>可表示为:

根据量子相移门和多位受控非门的定义公式(1-5),可推导出|φt>的相位如下:

式中,当t=1时,

s24:创建双隐层量子线路循环单元神经网络模型,采用输出层激发态的概率幅来表示最终输出,具体如下:以表示输入序列;表示输入比特;表示第一隐层输入;表示第一隐层输出;表示第二隐层输入;为第二隐层输出;表示输出比特;表示最终输出;

为:

式中,的相位,为归一化输入样本,则,

根据量子线路循环单元的输入输出关系,第一隐层和第二隐层的输入分别表示为:

记第一隐层输出为:

根据公式(6-8),可推导出的相位如下:

式中,j=1,2,…,p;的相位;

当t=1时,其中表示输入层量子相移门的相位;

同理,第二隐层输出为:

的相位如下:

式中,k=1,2,…,q;的相位;当t=1时

其中表示第一隐层量子相移门的相位;

输出表示如下:

式中l=1,2,…,n,的相位;

根据公式(1-5)可推导出

式中,表示第二隐层量子相门的相位。

为简化计算过程,用处于状态|1>的概率幅来表示最终输出,即:

s25:双隐层量子线路神经网络dhl-qcrunn的学习算法:

通过更新输入层和隐层的量子相移门相位来完成每一步训练;

记第s步训练中各相位为相应的相位增量为则更新的相位可表示为:

采用lm算法更新设dhl-qcrunn的逼近误差函数为:

式中,分别表示实际输出和期望输出,则et是关于的一致连续函数;

根据链式求导法则,的梯度可表示如下:

其中,

同理,可以计算的梯度为:

其中,

的梯度为:

表示由输入层和双隐层量子相移门的相位组成矢量,表示误差矢量,jt表示由各参数的梯度组成的雅克比矩阵,其定义如下:

式中,l=1,2,…,n;

利用lm算法更新

式中,的增量;i为单位矩阵;μ是一个确保矩阵(jt)tjt+μi可逆的微小正数;

里的增量分别代入式(17-19),即可实现各个相位的更新,也即完成一次对dhl-qcrunn的训练。

作为优选的技术方案,步骤s2和s4中,将所述排列熵集或排列熵误差集输入双隐层量子线路循环单元神经网络进行训练和预测,包括以下步骤:

将所述排列熵集或排列熵误差集通过相空间重构将样本集分为训练样本集xtrain和相应的期望输出集两部分,其表达式分别如下:

其中,xtrain的每一列表示一个m(m<b-a)维训练样本,其训练目标是对应列中的元素,显然,训练样本总数为b-a-m+1;

dhl-qcrunn训练步骤如下:

(1)在第一步训练中初始化相位,把[0,2π]内的值随机赋给

(2)将训练样本集输入dhl-qcrunn计算输出

(3)利用lm算法更新以得到下一个训练周期的初始相位;

(4)重复步骤(2)和步骤(3)直到的均方误差小于设定的阈值emse,或达到最大训练步数nmax;

dhl-qcrunn训练完成后,采用多步预测法进行状态退化趋势预测,dhl-qcrunn的预测步骤如下:

(1)将训练集最后m个样本{xb-m+1,xb-m+2,…,xb}作为dhl-qcrunn的初始输入,得到b+1时刻的输出

作为dhl-qcrunn的输入,得到b+2时刻的输出以此类推,向dhl-qcrunn输入得到b+n时刻的输出完成第n步预测。

作为优选的技术方案,步骤s3中,计算各时间点的实际排列熵与预测的排列熵之间的误差,采用下列公式:

定义b+n(b=120,121,…,932)时刻的排列熵误差为:

其中,n表示预测样本个数;xb+i和分别表示b+i时刻的排列熵实际值和排列熵预测值。

作为优选的技术方案,所述监控对象是旋转机械,所述原始运行数据是旋转机械的原始振动数据。

由于采用了上述技术方案,本发明的有益效果是:本发明提出了一种新型量子神经网络——双隐层量子线路循环单元神经网络(dhl-qcrunn),在dhl-qcrunn中,设计双隐层结构以提高复杂输入输出关系下的网络非线性映射能力;引入量子相移门和多位受控非门以实现信息从输入层到输出层的传递;利用双隐层的量子反馈机制可以获得输入序列的整体记忆;此外,本发明通过量子levenberg-marquardt(lm)算法来更新dhl-qcrunn的网络参数(即各个量子相移门相位)以提高该神经网络的收敛性能。因此,与其它人工智能方法相比,dhl-qcrunn具有更好的非线性逼近能力、泛化特性和更快的收敛速度。

然后,基于dhl-qcrunn的上述优点,用于对监控的对象的运行趋势预测,达到了较高的预测精度、预测稳定性和计算效率。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1是本发明实施例的工作流程图;

图2是本发明实施例中量子相移门的拓扑图;

图3是本发明实施例中多位受控非门的拓扑图;

图4是本发明实施例中量子线路循环单元的拓扑图;

图5是本发明实施例中双隐层量子线路循环单元的拓扑图;

图6是本发明实施例中1号轴承在最后7天内的排列熵的示意图;

图7是本发明实施例中1号轴承在最后7天的归一化排列熵误差曲线图;

图8是本发明实施例中dhl-qcrunn预测的归一化排列熵误差曲线图;

图9是本发明实施例中四种神经网络的逼近误差曲线图;

图10是本发明实施例中bpnn预测的归一化排列熵误差曲线图;

图11是本发明实施例中rnn预测的归一化排列熵误差曲线图;

图12是本发明实施例中lstmnn预测的归一化排列熵误差曲线图;

图13是本发明实施例中ls-svm预测的归一化排列熵误差曲线图;

图14是本发明实施例中五种状态退化趋势预测方法的计算时间比较示意图。

图15是本发明实施例中五种状态退化趋势预测方法的计算时间比较柱状示意图。

具体实施方式

如图1所示,一种基于双隐层量子线路循环单元神经网络的趋势预测方法,包括以下步骤:

s1:采集监控对象的原始运行数据构建排列熵集;

s2:将排列熵集输入双隐层量子线路循环单元神经网络进行训练和预测,得到预测的排列熵集;

s3:计算各时间点实际的排列熵和预测的排列熵之间的误差,构建排列熵误差集;

s4:将排列熵误差集归一化处理后,输入双隐层量子线路循环单元神经网络进行训练和预测,得到预测的归一化的排列熵误差集;

s5:将预测的归一化的排列熵误差集进行反归一化处理,得到最终预测结果;

本方法,还包括:在步骤s2之前,构建双隐层量子线路循环单元神经网络,其中,双隐层量子线路循环单元神经网络简称为dhl-qcrunn,具体步骤如下:

s21:创建量子相移门模型,量子相移门的拓扑图如图2所示,得出量子比特经过相移门变换后最新状态与初始状态之间的关系,具体如下:

记量子相移门为令量子比特的初始状态则|φ0>可通过r(θ)进行如下变换:

式中|φ′0>表示经过相移变换后的最新状态;

s22:创建多位受控非门模型,多位受控非门的拓扑图如图3所示,得出在多个控制量子比特的联合控制下的目标量子比特的输出,具体如下:

在量子系统中,单个量子比特的状态受多个量子比特的联合控制的动态行为,以多位受控非门cn(x)来描述,其中,|x1>,|x2>,...|xn>是控制比特,是输入目标比特,|φ>是输出目标比特。cn(x)的计算规则定义如下:

式中,是单比特量子非门;x的指数表示x1,x2,…,xn的积,若前n个量子比特全为1,即|xi>=|1>,则单比特量子非门x作用到使其翻转得到|φ>;

设控制量子比特为|xi>=αi|0>+βi|1>,目标量子比特输入态为则经过cn(x)变换后的输出推导如下:

式中,αi2+βi2=1;表示张量积;

由式(3)可知,cn(x)的输出处于n+1个量子比特的纠缠态中,|φ>处于状态|1>的概率为:

因此,在n个控制比特的联合控制下输出目标比特|φ>可以表示为:

式中为|φ>的相位

s23:由量子相移门和多位受控非门来创建量子线路循环单元,量子线路循环单元的拓扑图如图5所示,设定是t时刻的控制量子比特,是t时刻的目标量子比特输入态,是第i个量子相移门的相位,|φt>是t时刻的目标量子比特输出态,则在量子线路循环单元中,将目标量子比特输出态|φt>作为下一时刻的目标量子比特输入,即实现对输入序列的历史记忆,具体如下:

令t=1,2,…,t表示t个采样时间点,可表示为:

目标量子比特输出态|φt>可表示为:

根据量子相移门和多位受控非门的定义公式(1-5),可推导出|φt>的相位如下:

式中,当t=1时,

s24:创建双隐层量子线路循环单元神经网络模型,双隐层量子线路循环单元神经网络的拓扑图如图5所示,采用输出层激发态的概率幅来表示最终输出,具体如下:以表示输入序列;表示输入比特;表示第一隐层输入;表示第一隐层输出;表示第二隐层输入;为第二隐层输出;表示输出比特;表示最终输出;

为:

式中,的相位,为归一化输入样本,则,

根据量子线路循环单元的输入输出关系,第一隐层和第二隐层的输入分别表示为:

记第一隐层输出为:

根据公式(6-8),可推导出的相位如下:

式中,j=1,2,…,p;的相位;

当t=1时,其中表示输入层量子相移门的相位;

同理,第二隐层输出为:

的相位如下:

式中,k=1,2,…,q;的相位;当t=1时其中表示第一隐层量子相移门的相位;

输出表示如下:

式中l=1,2,…,n,的相位;

根据公式(1-5)可推导出

式中,表示第二隐层量子相门的相位。

为简化计算过程,用处于状态|1>的概率幅来表示最终输出,即:

s25:双隐层量子线路神经网络dhl-qcrunn的学习算法:

通过更新输入层和隐层的量子相移门相位来完成每一步训练;

记第s步训练中各相位为相应的相位增量为则更新的相位可表示为:

采用lm算法更新设dhl-qcrunn的逼近误差函数为:

式中,分别表示实际输出和期望输出,则et是关于的一致连续函数;

根据链式求导法则,的梯度可表示如下:

其中,

同理,可以计算的梯度为:

其中,

的梯度为:

表示由输入层和双隐层量子相移门的相位组成矢量,表示误差矢量,jt表示由各参数的梯度组成的雅克比矩阵,其定义如下:

式中,l=1,2,…,n;

利用lm算法更新

式中,的增量;i为单位矩阵;μ是一个确保矩阵(jt)tjt+μi可逆的微小正数;

里的增量分别代入式(17-19),即可实现各个相位的更新,也即完成一次对dhl-qcrunn的训练。

在步骤s2和s4中,将排列熵集或排列熵误差集输入双隐层量子线路循环单元神经网络进行训练和预测,包括以下步骤:

将排列熵集或排列熵误差集通过相空间重构将样本集分为训练样本集xtrain和相应的期望输出集两部分,其表达式分别如下:

其中,xtrain的每一列表示一个m(m<b-a)维训练样本,其训练目标是对应列中的元素,显然,训练样本总数为b-a-m+1;

dhl-qcrunn训练步骤如下:

(1)在第一步训练中初始化相位,把[0,2π]内的值随机赋给

(2)将训练样本集输入dhl-qcrunn计算输出

(3)利用lm算法更新以得到下一个训练周期的初始相位;

(4)重复步骤(2)和步骤(3)直到的均方误差小于设定的阈值emse,或达到最大训练步数nmax;

dhl-qcrunn训练完成后,采用多步预测法进行状态退化趋势预测,dhl-qcrunn的预测步骤如下:

(1)将训练集最后m个样本{xb-m+1,xb-m+2,…,xb}作为dhl-qcrunn的初始输入,得到b+1时刻的输出

作为dhl-qcrunn的输入,得到b+2时刻的输出以此类推,向dhl-qcrunn输入得到b+n时刻的输出完成第n步预测。

在步骤s3中,计算各时间点的实际排列熵与预测的排列熵之间的误差,采用下列公式:

定义b+n(b=120,121,…,932)时刻的排列熵误差为:

其中,n表示预测样本个数;xb+i和分别表示b+i时刻的排列熵实际值和排列熵预测值。

本实施例以cincinnati大学实测的滚动轴承状态退化数据验证本发明所提出的方法:在轴承实验台的转轴上安装四个航空专用轴承,这些航空轴承为rexnord公司制造的za-2115双列滚子轴承,交流电机通过带传动以2000r/min的恒定转速带动转轴旋转,实验过程中轴承被施加6000lbs的径向载荷。采样频率为20khz,采样长度为20480个点,每隔10min采集一次轴承的振动数据,轴承持续运行直到出现故障。

在该实验中,1号轴承运行到第七天时因出现外圈故障而失效,采用1号轴承的状态退化数据来验证本发明所提方法的有效性。取1号轴承运行七天的状态退化的振动数据(即984个样本)来构造排列熵,其中,排列熵算法的嵌入维数和时间延迟分别设为d=5和τ=3。

构造的排列熵如图6所示,从第548点开始出现明显下降曲线,表明轴承处于初始退化阶段(早期故障阶段)。从第548到第697点开始出现明显不规则曲线,表明轴承出现了较大外圈缺陷,在697点以后不规则曲线密集程度明显增多,表明该轴承已出现严重故障,濒临失效。

采用用dhl-qcrunn来完成对各组排列熵序列的预测。

dhl-qcrunn的参数设定如下:输入层维数m=8;第一隐层维数p=6;第二隐层维数q=10;输出层维数n=1;最大训练步数nmax=5000;均方误差阈值emse=0.0001,预测样本数n=50。

分别将每组排列熵输入dhl-qcrunn,来完成每组相应的50个排列熵样本的预测。

再根据式(36)可计算排列熵误差((epe)170,…,(epe)982),经归一化处理后得到((epen)170,…,(epen)982),如图7所示。

再通过dhl-qcrunn来预测归一化排列熵误差。dhl-qcrunn的参数设定如下:输入层维数m=8;第一隐层维数p=6;第二隐层维数q=10;输出层维数n=1;最大训练步数nmax=5000;均方误差阈值emse=0.0001。预测样本数取n=50。

图7中第600到679个采样点处于初始退化阶段,是状态退化趋势观测中最重要的时间序列数据。因此,取这80个样本的实际归一化排列熵误差进行预测验证,其中前30个样本点作为训练样本(即令a=600,b=629),后50个样本点作为测试样本,使用dhl-qcrunn并根据第2节的多步向前预测法来预测后50个测试样本的归一化排列熵误差值,最终预测曲线如图8所示。

图8结果表明,被预测的在[630,679]区间内的归一化排列熵误差与图7对应的实际归一化排列熵误差非常接近,即由预测的归一化排列熵误差拟合的曲线与实际归一化排列熵误差的动态趋势(即实际状态退化趋势)一致,说明基于dhl-qcrunn的趋势预测方法是有效的,可以将该方法用于旋转机械的状态退化趋势预测。

通过三组比较来验证所提出的基于dhl-qcrunn的旋转机械状态退化趋势预测方法的优势:

利用用bpnn、rnn和lstmnn与dhl-qcrunn进行收敛特性比较,各神经网络参数设置保持不变,这四种神经网络的逼近误差如图9所示。

从图9中可以看出,相较于bpnn、rnn、lstmnn,dhl-qcrunn的逼近误差更快的达到了设定阈值,说明所提出的dhl-qcrunn具有更好的泛化特性和更快的收敛速度。

然后,将基于dhl-qcrunn方法得到的预测精度与基于其它方法(bpnn、rnn、lstmnn和ls-svm)获得的预测精度相比较。后四种方法的训练次数及预测方式(即输入输出方式)同本发明dhl-qcrunn保持一致。

bpnn、rnn、lstmnn的学习率均设为α=0.5;ls-svm选择rbf核函数,通过留一法交叉验证参数优化算法自动设置核参数和正则化参数。采用这些方法得到的双列滚子轴承的状态退化趋势预测结果如图10至图13所示。

为进一步定量评价预测精度,采用均方根误差(rmse)作为评价指标,其表达式为:

其中,n表示预测样本个数;(epe)b+i和分别表示第b+i个样本点的实际的归一化排列熵误差和预测的归一化排列熵误差。

在dhl-qcrunn、bpnn、rnn、lstmnn、ls-svm参数设置保持不变的条件下,用这五种预测方法重复进行100次预测,取最小均方根误差emin、最大均方根误差emax、平均均方根误差作为100次预测的预测误差评价指标,结果见表1。

表15种状态退化趋势预测方法的预测误差比较

图9和表1结果表明,dhl-qcrunn的平均预测误差相对最小,且预测误差的波动范围也相对最小,说明将dhl-qcrunn用于双列滚子轴承的状态退化趋势预测,相比于bpnn、rnn、lstmnn及ls-svm可以取得更高的预测精度和预测稳定性。

最后,将bpnn、rnn、lstmnn与ls-svm进行状态退化趋势预测的计算时间与dhl-qcrunn的计算时间进行对比,其结果如图14所示。dhl-qcrunn的计算时间为0.870189s,bpnn的计算时间为1.215257s,rnn的计算时间为1.252406s,lstmnn的计算时间为4.856815s,ls-svm的计算时间为0.181720s,dhl-qcrunn的计算时间仅比ls-svm略长(两者仍处于同一数量级)。表明与bpnn、rnn、lstmnn和ls-svm四种方法相比,本发明提出的基于dhl-qcrunn的趋势预测方法应用于旋转机械状态退化趋势预测具有更高的计算效率。

以上显示和描述了本发明的基本原理、主要特征及本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1