城市生活垃圾焚烧过程一燃室烟气温度预报方法

文档序号:26103953发布日期:2021-07-30 18:15阅读:179来源:国知局
城市生活垃圾焚烧过程一燃室烟气温度预报方法

本发明涉及城市生活垃圾焚烧过程关键参数预报技术领域,更具体来说,本发明是一种城市生活垃圾焚烧过程的一燃室烟气温度预报方法。



背景技术:

随着我国经济水平的快速提高、城市化水平的逐步提升以及城市人口的飞速增加,城市生活垃圾的产量也随之增加。目前,垃圾焚烧发电技术是我国城市生活垃圾处理的主要方法之一,该方法可以实现城市生活垃圾的减量化、资源化以及无害化。然而,受我国生活习惯、地域、季节等因素影响,我国垃圾组分存在着较大的随机性,而且我国垃圾普遍没有经过分类处理,这对焚烧过程提出了很高的要求。准确的预报垃圾焚烧过程一燃室烟气温度可以为现场操作人员提供有效地指导,同时为焚烧过程的稳定控制提供保证。因此,本发明的研究成果具有重要的现实意义。

值得注意的是,城市生活垃圾焚烧处理的原则是在保证垃圾稳定燃烧且环境影响最小的前提下,提高垃圾焚烧过程的经济效益。一燃室烟气温度是决定焚烧过程是否合理的关键指标。当一燃室烟气温度低于850℃时,具有强致癌性的二噁英将得不到有效分解,从而危及人类的健康;相反,烟气温度过高会降低焚烧炉的使用寿命并会造成资源的浪费。此外,准确预报一燃室烟气温度有助于操作人员对进风量和进料量做出及时的调整,从而保证垃圾焚烧过程的稳定运行。

目前,针对城市生活垃圾焚烧过程的炉温预报方法的研究主要集中在机理模型的研究,即根据焚烧炉内的质量守恒、能量守恒以及相关的物理化学反应方程等建立一燃室烟气温度预报模型。虽然机理分析具有可靠性高、外推性好等优点,但由于焚烧过程存在垃圾成分复杂、强非线性、变量间耦合严重等复杂特性,采用机理模型作为一燃室烟气温度的预报模型很难满足要求。随着传感器技术的大力发展,垃圾焚烧发电厂可以获得大量的焚烧数据,这为基于数据驱动的预报方法提供了有力保障,如:bp神经网络、支持向量机等。然而,由于众所周知的原因,如:bp神经网络容易陷入局部最优且收敛速度慢;支持向量机对大规模数据样本的训练效率低等,使得这些典型方法的应用具有一定的局限性。

随机配置网络(scn)作为一种新兴的数据驱动建模方法,以其通用逼近性质、网络结构随机配置、训练速度快等优点引起广大研究人员的关注,并在模式分类、函数逼近、参数预测等领域得到了有效应用。然而,从垃圾焚烧发电厂采集的数据普遍存在服从未知分布的噪声或异常值,这导致基于数据驱动的预报模型的准确性下降。仅采用经典的随机配置网络算法建立垃圾焚烧过程一燃室烟气温度预报模型是不能满足要求的。因此,研究一种具有鲁棒性的城市生活垃圾焚烧过程一燃室烟气温度预报模型是十分必要的。



技术实现要素:

针对上述问题,本发明提供了一种基于鲁棒随机配置网络的城市生活垃圾焚烧过程一燃室烟气温度预报方法,可以根据炉排速度、一次风量、二次风量等输入变量对焚烧炉一燃室的烟气温度进行预报,从而为焚烧过程的稳定控制提供指导。

为达到上述目的,本发明采用如下技术方案:

城市生活垃圾焚烧过程一燃室烟气温度预报方法,其特征在于,包括以下步骤:(1)构建预报模型的训练集;(2)参数初始化;(3)采用随机配置网络算法确定预报模型的网络初始结构及参数;(4)对样本中的异常值或噪声的分布提出假设,推导预报模型隐含层输出权重的最大后验估计;(5)执行期望最大化算法的e-step,得到训练集中各个潜变量的期望值;(6)执行期望最大化算法的m-step,得到超参数及隐含层输出权重的迭代解;(7)重复上述步骤(5)和(6),直至得出混合student分布的超参数并且完成预报模型的训练过程。进一步具体包括如下步骤:

(1)构建预报模型的训练集;将各段炉排速度、一次风量、二次风量等60个特征变量(如表1所示)的样本数据作为训练集的输入x,一燃室烟气温度作为训练集的输出y,组成样本容量为n的训练集d,如下式所示:

其中,n表示训练集d中的第n组数据;r表示实数域;k表示训练集d的输入特征数量,此处k=62。

接着,对训练集d中各个特征变量进行归一化处理,如下式所示:

其中,k=1,2,…,k+1;n=1,2,…,n,此处n表示训练样本容量;表示归一化后第n个样本的第k个特征变量值;min(x1,k,…,xn,k)表示训练集d中第k个特征变量的最小值,max(x1,k,…,xn,k)表示训练集d中第k个特征变量的最大值,xn,k表示训练集d中的第n个训练样本的第k个特征变量的值。

(2)参数初始化;令随机配置网络算法的最大隐含层神经元个数为lmax,最大配置次数为tmax,训练预期误差为ε,隐含层神经元的输入权重和偏置的参数配置范围为[-λ,+λ];

(3)采用随机配置网络算法确定预报模型的网络初始结构及参数;随机配置网络算法的学习过程主要分为两个阶段:隐含层神经元参数的随机配置和隐含层神经元输出权重的评估。对于目标函数f:rk→r,假设随机配置网络的l-1个隐含层神经元已经配置完成,此时随机配置网络的输出如式(3)所示:

其中,x表示训练集的输入;hl-1(x)={h1(x),h2(x),…,hl-1(x)}表示隐含层神经元数量为l-1时的隐含层输出矩阵;表示hl-1(x)的转置;β={β1,β2,…,βl-1}表示隐含层神经元的输出权重矩阵,且β采用式(5)计算得出;wj和bj分别表示第j个隐含层神经元的输入权重和偏置,且第j个隐含层神经元的输出表示第j个隐含层神经元的激活函数,此处为sigmoid函数,j=1,..,l-1。此时,随机配置网络的输出残差为el-1(x)=f(x)-fl-1(x),其中f(x)表示输入为x时目标函数的输出。如果el-1(x)的矩阵范数大于期望误差ε,需根据式(4)的监督机制在[-λ,+λ]随机生成第l个隐含层神经元(wl和bl)并利用式(5)重新确定随机配置网络的隐含层输出权重β*,直至残差小于ε(ε的取值根据模型允许的误差进行设置,此处ε为0.0001)或者隐含层神经元数量到达最大值lmax。

其中,hl(x)表示第l个隐含层神经元的输出;{μl}是非负实数序列,μl=(1-r)/l且常数r的取值范围为(0,1);y为训练集的输出;表示隐含层神经元数量为l时的隐含层输出hl的伪逆;||·||f表示f-范数运算,此处λ=1,由于不等式(4)监督机制的约束,保证了网络的通用逼近性质,因此,λ的取值对实验结果基本没有影响。

(4)对样本中的异常值或噪声的分布提出假设,推导预报模型隐含层输出权重的最大后验估计;假设训练样本中的异常值或噪声ε服从由g个student分布组成的混合分布,其概率密度函数如式(6)所示:

其中,g表示混合分布中子分布的数量,s(ε;0,σi,vi)表示第i个student分布的位置参数为0、尺度参数为σi且自由度为vi,i=1,2,…,g;ω={ω1,ω2,…,ωg}表示每个student分布的权重系数的集合,ωi≥0且σ={σ1,σ2,…,σg}表示每个student分布的尺度参数的集合,v={v1,v2,…,vg}表示每个student分布的自由度的集合,γ(·)表示伽玛函数,其计算表达式为

此时,第n的训练样本的输出yn的概率密度函数如下所示:

其中,β*表示随机配置网络的隐含层输出权重,xn表示第n个训练样本的输入向量,σi表示第i个student分布的尺度参数,vi表示第i个student分布的自由度,ωi表示第i个student分布的权重系数,h(xn)表示第n个训练样本输入到随机配置网络时的隐含层输出;i=1,2,3;s(yn;h(xn)β*,σi,vi)表示位置参数为h(xn)β*、尺度参数为σi且自由度为vi的student分布。

为了便于后续计算,在训练集d内引入服从gamma(un;v/2,v/2)分布的潜变量u={u1,u2,…,un},引入潜变量u后的训练集表示为m={x,y,u}。此时,可以将student分布的概率密度函数可以表示为高斯分布与伽玛分布的乘积形式。假设训练集内所有的样本相互独立,则训练集m的似然函数可表示为:

其中,s(yn;h(xn)β*,σi,vi)表示yn服从位置参数为h(xn)β*、尺度参数为σi以及自由度为vi的student分布;un表示训练集m中第n个样本对应的潜变量;gaussian(yn;h(xn)β*,σi2/un)表示均值为h(xn)β*且标准差为σi2/un的高斯分布;gamma(un;vi/2,vi/2)表示形状参数和尺度参数均为vi/2的伽玛分布。

根据贝叶斯定理,计算隐含层输出权重β后验分布的公式是:

其中,表示隐含层输出权重β*服从均值为0且方差为的高斯分布,表达式如下式所示:

其中,l表示隐含层神经元数量。

于是,式(8)对应的对数似然函数是:

其中,表示β*服从的高斯分布的方差,c为对数运算后产生的常数,由于后续进行求导运算,常数的具体数值将不会影响最终结果。

根据最大后验估计估计算法,随机配置网络的隐含层权重β*以及超参数可以通过下式计算得出:

根据期望最大算法,在数据集m的基础上引入潜变量z={z1,z2,…,zn}构成新的数据集t={x,y,u,z}。其中,zn={z1n,z2n,…,zgn}(n=1,2,…,n,n表示训练样本容量;g为混合分布中子分布的数量)的概率分布如下式所示:

其中,zin表示集合z中的第n个变量的第i个特征值,ωi表示第i个student分布的权重系数。

此时,式(11)所示的似然函数可被更新为下式:

于是,随机配置网络的隐含层输出权重β*的后验估计的对数似然形式为:

其中c2为常数,由于后续进行求导运算,常数的具体数值将不会影响最终结果。

合并(10)、(14)和(15)可得:

(5)执行期望最大化算法的e-step,得到训练集中各个潜变量的期望值;通过下式计算在给定训练集d下的条件期望:

其中,e(·)表示数学期望,c3为常数,由于后续进行求导运算,常数的具体数值将不会影响最终结果;并且,由于后续进行求导运算,此处省略了与超参数无关的项。其中,在给定训练集d情况下,zin的条件期望为γin;un的条件期望为χin;un的对数lnun的条件期望为θin,计算公式如式(18)、(19)和(20)所示:

其中,ψ(·)表示digamma函数,i=1,2,…,g,g表示混合分布中子分布的数量。

(6)执行期望最大化算法的m-step,得到混合分布的超参数及隐含层输出权重的迭代解;使关于超参数最大化。令的偏导数为0,对于i=1,2,…,g,第i个student分布的权重系数以及尺度参数的迭代如(21)和(22)所示:

其中,q表示期望最大化算法的迭代次数,表示第q+1次迭代后第i个student分布的权重系数;表示第q+1次迭代后第i个student分布的尺度参数;χin、θin以及γin分别由式(18)、(19)和(20)计算得出;h(xn)表示scn网络的隐含层输出;β*表示隐含层输出权重。。

为了提高期望最大化算法的收敛速度,将式(22)的分子替换为后得到:

第i个student分布的自由度按下式计算得出:

其中,分别表示第q次迭代和第q+1次迭代后第i个student分布的自由度。

此处,针对式(24)没有解析解的问题,采用牛顿迭代法求取的近似解。

的迭代计算公式是:

其中,表示第q+1次迭代后β*的先验分布的方差,l为随机配置网络隐含层神经元数量。

输出权重β*的迭代公式是:

β*(q+1)=(ht(x)φ(q+1)h(x)+il)-1(ht(x)φ(q+1)y)(26)

其中,ht(x)表示输入矩阵为x时随机配置网络的隐含层输出矩阵的转置;il表示l维单位矩阵;为维度为n的对角矩阵,该矩阵表示训练样本的惩罚权重矩阵,第n个训练样本的惩罚权重的q+1次跌代解的计算公式如下:

(7)重复上述步骤(5)和(6),直至得出混合student分布的超参数并且完成预报模型的训练过程;当期望的变化率满足如下的不等式(28)时,认为期望最大化算法收敛同时预报模型的训练过程结束。

其中,η表示趋于0的正数,此处取值为10-6

本发明与现有技术相比具有以下优点:1.本发明采用随机配置网络学习算法作为一燃室烟气温度预报模型的学习算法,极大的避免了人工设定对网络结构的影响且模型的训练速度较快。2.随机配置网络的通用逼近性质保证了预报模型的准确性。3.采用混合student分布较好的模拟了训练样本中的噪声和误差分布,从而提升了温度预报模型的鲁棒性和泛化能力。

附图说明

图1为本发明城市生活垃圾焚烧过程的一燃室烟气温度预报方法策略图

具体实施方式

样本数据来自某城市生活垃圾焚烧发电厂焚烧过程中产生的700组数据,下面结合图1的策略图对本发明的具体实施方式做进一步说明。

城市生活垃圾焚烧过程的一燃室烟气温度预报方法,其特征在于包括以下步骤:

(1)构建预报模型的训练集;将各段炉排速度、一次风量、二次风量等62个特征变量(如表1所示)的样本数据作为训练集的输入x,一燃室烟气温度作为训练集的输出y,组成样本容量为700的训练集d,如下式所示:

其中,n表示训练集d中的第n组数据,r表示实数域,训练集d的输入特征数量为62。

接着,对训练集d中各个特征变量进行归一化处理,如下式所示:

其中,k=1,2,…63;n=1,2,…,700;表示归一化后第n个样本的第k个特征变量值,min(x1,k,…,x700,k)表示训练集d中第k个特征变量的最小值,max(x1,k,…,x700,k)表示训练集d中第k个特征变量的最大值,xn,k表示训练集d中的第n个训练样本的第k个特征变量的值。

(2)参数初始化;令随机配置网络模型的最大隐含层神经元个数为60,最大配置次数为200,训练预期误差为0.001,隐含层神经元的输入权重和偏置的参数配置范围为[-1,+1];

(3)采用随机配置网络算法确定预报模型的网络初始结构及参数;随机配置网络算法的学习过程主要分为两个阶段:隐含层神经元参数的随机配置和隐含层神经元输出权重的评估。对于目标函数f:r62→r,假设随机配置网络的l-1个隐含层神经元已经配置完成,此时随机配置网络的输出如式(3)所示:

其中,x表示训练集的输入;hl-1(x)={h1(x),h2(x),…,hl-1(x)}表示隐含层神经元数量为l-1时的隐含层输出矩阵,且β采用式(5)计算得出;表示hl-1(x)的转置;β={β1,β2,…,βl-1}表示隐含层神经元的输出权重矩阵;wj和bj分别表示第j个隐含层神经元的输入权重和偏置,且第j个隐含层神经元的输出表示第j个隐含层神经元的激活函数,此处为sigmoid函数,j=1,..,l-1。此时,随机配置网络的输出残差为el-1(x)=f(x)-fl-1(x),其中f(x)表示输入为x时目标函数的输出。如果el-1(x)的矩阵范数大于期望误差0.001,需根据式(4)的监督机制在[-1,+1]内随机生成第l个隐含层神经元(wl和bl)并利用式(5)重新确定随机配置网络的隐含层输出权重β*,直至残差小于0.0001或者隐含层神经元数量到达60。

其中,hl(x)表示第l个隐含层神经元的输出;{μl}是非负实数序列,μl=(1-r)/l且常数r的取值为{0.9,0.99,0.999,0.9999,0.99999};y为训练集的输出;表示隐含层神经元数量为l时的隐含层输出hl的伪逆;||·||f表示f-范数运算。

(4)对样本中的异常值或噪声的分布提出假设,推导预报模型隐含层输出权重的最大后验估计;假设训练样本中的异常值或噪声ε服从由3个student分布组成的混合分布,其概率密度函数如式(6)所示:

其中,s(ε;0,σi,vi)表示第i个student分布的位置参数为0、尺度参数为σi且自由度为vi,i=1,2,3;ω={ω1,ω2,ω3}表示每个student分布的权重系数的集,且ω1=ω2=ω3=1/3,σ={σ1,σ2,σ3}表示每个student分布的尺度参数的集合,且σ1=0.20,σ2=0.15,σ3=0.10;v={v1,v2,v3}表示每个student分布的自由度的集合,且v1=v2=v3=5,γ(·)表示伽玛函数,其计算表达式为

此时,第n的训练样本的输出yn的概率密度函数如下所示:

其中,β*表示随机配置网络的隐含层输出权重,xn表示第n个训练样本的输入向量,σi表示第i个student分布的尺度参数,vi表示第i个student分布的自由度,ωi表示第i个student分布的权重系数,h(xn)表示第n个训练样本输入到随机配置网络时的隐含层输出,i=1,2,3;s(yn;h(xn)β*,σi,vi)表示位置参数为h(xn)β*、尺度参数为σi且自由度为vi的student分布。

为了便于后续计算,在训练集d内引入服从gamma(un;vi/2,vi/2)分布的潜变量u={u1,u2,…,u700},i=1,2,3,引入潜变量u后的训练集表示为m={x,y,u}。此时可以将student分布的概率密度函数可以表示为高斯分布与伽玛分布的乘积形式。假设训练集内所有的样本相互独立,则训练集m的似然函数可表示为:

其中,s(yn;h(xn)β*,σi,vi)表示yn服从位置参数为h(xn)β*、尺度参数为σi以及自由度为vi的student分布;un表示训练集m中第n个样本对应的潜变量;gaussian(yn;h(xn)β*,σi2/un)表示均值为h(xn)β*且标准差为σi2/un的高斯分布;gamma(un;vi/2,vi/2)表示形状参数和尺度参数均为vi/2的伽玛分布。

根据贝叶斯定理,计算隐含层输出权重β*后验分布的公式是:

其中,表示隐含层输出权重β*服从均值为0且方差为的高斯分布,表达式如下式所示:

其中,l表示隐含层神经元数量。

于是,式(8)对应的对数似然函数是:

其中,表示β*服从的高斯分布的方差,c为对数运算后产生的常数,由于后续进行求导运算,常数的具体数值将不会影响最终结果。

根据最大后验估计估计算法,随机配置网络的隐含层输出权重β以及超参数可以通过下式计算得出:

根据期望最大算法,在数据集m的基础上引入潜变量z={z1,z2,…,z700}构成新的数据集t={x,y,u,z}。其中,zn={z1n,z2n,z3n}(n=1,2,…,700)的概率分布如下式所示:

其中,zin表示集合z中的第n个变量的第i个特征值,ωi表示第i个student分布的权重系数。

此时,式(11)所示的似然函数可被更新为下式:

于是,随机配置网络的隐含层输出权重β*的后验估计的对数似然形式为:

其中c2为常数,由于后续进行求导运算,常数的具体数值将不会影响最终结果。

合并(10)、(14)和(15)可得:

(5)执行期望最大化算法的e-step,得到训练集中各个潜变量的期望值;通过下式计算在给定训练集d下的条件期望:

其中,e(·)表示数学期望,c3为常数且不影响算法求解性能;并且,由于后续进行求导运算,此处省略了与超参数无关的项。其中,在给定训练集d情况下,zin的条件期望为γin;un的条件期望为xin;un的对数lnun的条件期望为θin,计算公式如式(18)、(19)和(20)所示:

其中,ψ(·)表示digamma函数,i=1,2,3。

(6)执行期望最大化算法的m-step,得到混合分布的超参数及隐含层输出权重的迭代解;使关于超参数最大化。令的偏导数为0,对于i=1,2,3,第i个student分布的权重系数以及尺度参数的迭代如(21)和(22)所示:

其中,q表示期望最大化算法的迭代次数,表示第q+1次迭代后第i个student分布的权重系数;表示第q+1次迭代后第i个student分布的尺度参数;xin、θin以及γin分别由式(18)、(19)和(20)计算得出;h(xn)表示scn网络的隐含层输出;β*表示隐含层输出权重。。

为了提高期望最大化算法的收敛速度,将式(22)的分子替换为后得到:

第i个student分布的自由度按下式计算得出:

其中,分别表示第q次迭代和第q+1次迭代后第i个student分布的自由度。

此处,针对式(24)没有解析解的问题,采用牛顿迭代法求取的近似解。

的迭代计算公式是:

其中,表示第q+1次迭代后β*的先验分布的方差,l为随机配置网络隐含层神经元数量。

输出权重β的迭代公式是:

β*(q+1)=(ht(x)φ(q+1)h(x)+il)-1(ht(x)φ(q+1)y)(26)

其中,ht(x)表示输入矩阵为x时随机配置网络的隐含层输出矩阵的转置;il表示l维单位矩阵,为维度为700的对角矩阵,该矩阵表示训练样本的惩罚权重矩阵,第n个训练样本的惩罚权重的q+1次跌代解的计算公式如下:

(7)重复上述步骤(5)和(6),直至得出混合student分布的超参数并且完成预报模型的训练过程;当期望的变化率满足如下的不等式(28)时,认为期望最大化算法收敛同时预报模型的训练过程结束。

其中,η=10-6,该参数的选取会影响算法的收敛速度和准确性。

表1变量明细

目前,城市生活垃圾焚烧过程的一燃室烟气温度预报模型的研究主要集中在机理模型,而机理模型的预报准确率不能满足要求。另外,由于垃圾焚烧发电厂采集的样本普遍包含服从未知分布的异常值或噪声,导致基于数据驱动的预报模型的泛化能力较差。本发明提供了一种基于鲁棒随机配置网络的一燃室烟气温度预报方法,通过学习垃圾焚烧发电厂的历史数据,建立了鲁棒性强且准确度高的一燃室烟气温度预报模型。预报模型可以实时预报下一阶段一燃室烟气的温度,从而提醒操作人员对进风量和进料量做出及时的调整,极大的降低了由于操作问题造成的焚烧过程异常情况的发生。为了直观的体现本发明鲁棒性和准确性,在100条垃圾焚烧发电厂的历史数据的基础上分别引入10%、15%、20%、25%和30%的随机噪声作为测试样本,实验结果表明,本发明的预报均方根误差分别为0.0363、0.0355、0.0372、0.0387和0.0419(此处为归一化后的结果),达到了较为准确的预报效果。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1