一种基于小波变换和改进萤火虫优化极限学习机的短期负荷预测方法

文档序号:10613364阅读:421来源:国知局
一种基于小波变换和改进萤火虫优化极限学习机的短期负荷预测方法
【专利摘要】本发明涉及一种基于小波变换和改进萤火虫优化极限学习机的短期负荷预测方法,包括:(1)通过小波分解和重构,对原始负荷序列进行降噪;(2)在模型训练阶段利用改进的萤火虫短发优化极限学习机参数,获得个序列的最优模型;(3)针对各子序列分别预测叠加得到最终预测值。本发明通过在两种时间尺度的数据序列上进行数值计算,有效的解决了短期负荷预测,与传统的ARMA、BP神经网络、支持向量机及LSSVM等多种经典预测模型相比,模型预测效果更优。
【专利说明】
一种基于小波变换和改进萤火虫优化极限学习机的短期负荷 预测方法
技术领域
[0001] 本发明涉及电力系统自动化领域,涉及一种基于小波变换和改进萤火虫优化极限 学习机的短期负荷预测方法。
【背景技术】
[0002] 负荷预测一直以来都是电力系统的一个关键操作和规划途径,它影响着电力系统 的诸多决策,如经济调度、自动发电控制、安全评估、维护调度和能源商业化 [1]。短期电力负 荷预测主要是指预报未来几小时、1天至几天的用电量[2]。精准的电力负荷预测可以经济合 理地安排电力系统发电机组启停,对于保持电网运行的安全稳定、保持社会的正常生产和 生活、有效降低发电成本有着重要作用。经过长期的研究与实践,许多方法被应用到短期负 荷预测,包括:回归分析法、外推预测法、相似日法、灰色预测、神经网络模型及支持向量机 模型等。其中,以神经网络和支持向量机为代表的机器学习算法表现出较好的效果 [3]。但由 于负荷变化存在着较强的随机性和复杂性,各类方法均有一定的适用场合,并需不断的改 进和完善。

【发明内容】

[0003] 本发明的目的是提出一种优化极限学习机参数的方法进行短期负荷预测,考虑到 负荷序列的随机波动性问题,采用小波分解与重构进行适当降噪,利用改进的萤火虫算法 优化极限学习机作为各序列的预测方法,各频域的子序列进行单独预测后叠加得到最终预 测值。
[0004] 本发明可通过以下技术方案实现
[0005] -种基于小波变换和改进萤火虫优化极限学习机的短期负荷预测方法,其特征在 于,由以下步骤构成:
[0006] 步骤1、获取原始负荷序列数据;
[0007] 步骤2、对原始序列进行3层小波分解,具体是对于短期负荷预测,根据Mallat提出 的多分辨率思想,将非平稳的离散负荷序列S分解为不同频率的高频细节序列cU,d 2···dj和 一个低频近似序a^J为最大分解层数;通常采用db3小波基进行3层分解;其分解过程如下:
[0008]
[0009] 其中:?,山分别为原始信号在分辨率21下的低频信号和高频信号,是原始信号在 相邻不同频率段上的成分;Η为低通滤波器;G为高通滤波器;
[0010] 步骤3、对分解后的各序列进行二插值重构:所述步骤2分解过程利用二抽取,使得 每层分解信号比分解前信号数据减半,因此需要进行二插值重构使得信号长度还原;
[0011]
[0012]其中:H'G$分别为H,G的对偶算子;对札如…心和aj进行重构后,得到细节序Di, D2^_Dj和近似序列Aj,其长度与原始序列相同,并有
[0013] S = Di+D2+---Dj+Aj
[0014] 针对重构后的细节序列和近似序列分别进行预测,可以充分利用分解重构对信号 特征的挖掘,从而减小预测误差;
[0015] 步骤4、针对重构后各序列进行归一化后分别进行IFA-ELM模型训练和预测,具体 包括:
[0016] (1)初始化极限学习机的网络数学模型;ELM初始化m,Μ,η,激活函数g(X);萤火虫 算法初始化,包括设置种群规模N,萤火虫位置初始化,最大迭代次数Mi ter,= 1及自适应 参数初始值初值α〇;迭代次数cc = 1;
[0017] (2)对给定的训练样本,将萤火虫位置映射到待优化变量范围,求解E(sm),计算萤 火虫适应度;
[0018] (3)计算参数,比较萤火虫之间的适应度,利用公式更新萤火虫位置;
[0019] (4)利用个体变异机制进行个体变异更新;
[0020] (5)若达到最大迭代次数,则输出结果,否则cc = cc+1,转步骤(2);
[0021] 步骤5、各序列预测值映射回原区间后叠加得到最终预测结果;
[0022] 步骤6、预测评价:为具体对误差进行量化评价,定义平均绝对误差MAE、平均相对 误差MAPE及均方根误差RMSE如下:
[0023]
[0024]
[0025]
[0026] 其中,N为预测点数,predicti,reali分别为预测和实测的第1点负荷。
[0027] 在上述的一种基于小波变换和改进萤火虫优化极限学习机的短期负荷预测方法, 步骤4中极限学习机的网络数学模型包括如下:
[0028]极限学习机的网络训练模型采用前向单隐层结构,设m,M,n分别为网络输入层、隐 含层和输出层的节点数,g(x)是隐层神经元的激活函数,匕为阈值;设有N个不同的样本(Xl, ti),l<i<N,其中Xi = [Xil,Xi2,'"Xim]TeRm,ti = [til,ti2,…,tin]TGRn,极限学习机的网络 模型可用数学表达式表示如下:
[0029](1) .1=1
[0030]式中,《1=[011,《12,"_,0^1]表示连接网络输入层节点与第1个隐层节点与网 络输出层节点的输入权值向量;队=[队1,&2,一,& 11]7表示连接第1个隐层节点与网络输出 层节点的输出权值向量;〇j=[0jl,0j2,"_,0jn] ^不网络输出值;
[0031] 极限学习机的代价函数E可表示为
[0032]
[0033] 式中,3=(?1,匕4 = 1,2,~,),包含了网络输入权值及隐层节点阈值;!1皿即等 指出极限学习机的训练目标就是寻求最优的S,i3,使得网络输出值与对应实际值误差最小, 艮Pmin(E(S,P) ;min(E(S,P)可进一步写为:
[0034](3)
,t/; ,ρ
[0035] 式中,Η表示网络关于样本的隐层输出矩阵,β表示输出权值矩阵,Τ表示样本集的 目标值矩阵;Η,β,Τ分别定义如下:
[0036]
[0037]
[0038]极限学习机的网络训练过程可归结为一个非线性优化问题,式(6)为目标函数;当 网络隐层节点的激活函数无限可微时,网络输入权值和隐层节点阈值可随机赋值,此时矩 阵Η为一常数矩阵,极限学习机的学习过程可等价为求取线性系统Ηβ = Τ最小范数的最小二 乘解#,其计算式为:
[0039] β = ΗγΤ
[0040] 式中是矩阵Η的ΜΡ广义逆,》求解后,极限学习机的训练过程也就完成了。
[0041] 在上述的一种一种基于小波变换和改进萤火虫优化极限学习机的短期负荷预测 方法,所述步骤4中改进萤火虫算法包括如下:
[0042] (1)基本萤火虫算法,包括:
[0043] 1)吸引度:在萤火虫算法中,吸引度函数的主要形式可以是任意的单调递减函数, 通常如下:
[0044]
(7)
[0045] r是两萤火虫之间的距离,β〇是初始吸引度,γ是吸收系数,m通常取2;
[0046] 2)萤火虫之间的距离:两萤火虫p和q在分别位置&和知,两者间的距离可以定义为 笛卡尔或者欧式距离:
[0047]
(8)
[0048] xP,s是第p只萤火虫的第s维空间坐标,d是总共的坐标维度,qe{l,2,-_Fn};虽然q 是随机选择的,但是不等于?^"表示总的萤火虫数目;对于其他的应用,如调度安排,距离 可以是任何合适的形式,不局限于笛卡尔距离;
[0049] 3)萤火虫移动:当萤火虫p被另一只更有吸引力(更亮)的萤火虫q吸引时,其将发 生移动;
[0050]
(9)
[0051] 式中的第2部分由萤火虫之间的吸引决定,第3部分引入了随机参数'a',〃rand 〃是 〇到1之间均匀分布的随机数;
[0052] (2)个体变异机制,包括:定义, 1=,,分别是当前迭代中的最优及最差个体,随 机从当前种群中选择3个萤火虫个体Xql,Xq2,Xq3,qi辛q2辛q3 ;通过差分变异得到两个新个 体:
[0053]
(10)[0054] △是[0,1]之间的随机数;使用上式中的变异个体,产生下述5个新个体:[0055]
[0056]
[0057]
[0058]
[0059]
[0060] Xlmp5 = lt XXWorst+ζ X (XBest~Xw〇rst) (16)
[0061] 其中1〇1,1〇2,1〇 3,1〇4,1〇5,11 )和6是[0,1]之间的随机数;分别计算5个新个体的目标函数, 若其中最小目标函数小于第i个萤火虫的目标函数值,则用其替代第i个萤火虫的位置;
[0062] (3)参数自适应调整,包括:基本萤火虫算法中的参数α,控制算法在对邻域萤火虫 位置未知时进行随机搜索;α的大小控制着随机搜索的范围,较大的α值导致在大范围全局 搜索,较小的α则进行局部搜索;因此,合适的α值设定将平衡算法在全局和局部搜索上的表 现;因此,提出一种随迭代自适应调整的α值控制方式;
[0063]
(17:)
[0064] 其中Iter,kmax分别是当前迭代次数和最大迭代次数;α初值在[0,1]之间,随着迭 代次数增大,α逐渐减小,控制算法在初始阶段有较强的全局搜索能力,在迭代后期则有较 强的局部搜索能力,加快收敛速度。
[0065] 因此,本发明通过在两种时间尺度的数据序列上进行数值计算,有效的解决了短 期负荷预测,与传统的ARM、ΒΡ神经网络、支持向量机及LSSVM等多种经典预测模型相比,模 型预测效果更优。
【附图说明】
[0066] 图1是基于小波变换和改进萤火虫优化极限学习机的短期负荷预测的方法流程 图。
[0067]图2是极限学习机网络训练模型。
[0068]图3(a)是15分钟级负荷数据示意图。
[0069]图3(b)是lh级负荷数据示意图。
[0070]图4(a)是15分钟级负荷序列小波变换示意图。
[0071 ]图4(b)是lh级负荷序列小波变换示意图。
[0072]图5(a)是15分钟级数据预测对比示意图。
[0073]图5(b)是lh级数据预测对比示意图。
【具体实施方式】
[0074]为了进一步阐述本发明的过程和具体步骤,结合具体实例进行进一步说明。
[0075]如图1所示,一种基于小波变换和改进萤火虫优化极限学习机的短期负荷预测方 法,包括以下步骤:
[0076]步骤1、获取原始负荷序列数据;
[0077]步骤2、对原始序列进行3层小波分解,具体是对于短期负荷预测,根据Mallat提出 的多分辨率思想,将非平稳的离散负荷序列S分解为不同频率的高频细节序列cU,d2···dj和 一个低频近似序aj,J为最大分解层数;通常采用db3小波基进行3层分解;其分解过程如下:
[0078]
[0079] 其中:?,山分别为原始信号在分辨率21下的低频信号和高频信号,是原始信号在 相邻不同频率段上的成分;Η为低通滤波器;G为高通滤波器;
[0080] 步骤3、对分解后的各序列进行二插值重构:所述步骤2分解过程利用二抽取,使得 每层分解信号比分解前信号数据减半,因此需要进行二插值重构使得信号长度还原;
[0081]
[0082]其中:分别为H,G的对偶算子;对Ur-dj和aj进行重构后,得到细节序D1; D2^_Dj和近似序列Aj,其长度与原始序列相同,并有
[0083] S = Di+D2+---Dj+Aj
[0084] 针对重构后的细节序列和近似序列分别进行预测,可以充分利用分解重构对信号 特征的挖掘,从而减小预测误差;
[0085] 步骤4、针对重构后各序列进行归一化后分别进行IFA-ELM模型训练和预测,具体 包括:
[0086] (1)初始化极限学习机的网络数学模型;ELM初始化m,Μ,η,激活函数g(X);萤火虫 算法初始化,包括设置种群规模N,萤火虫位置初始化,最大迭代次数Mi ter,= 1及自适应 参数初始值初值α〇;迭代次数cc = 1;
[0087] (2)对给定的训练样本,将萤火虫位置映射到待优化变量范围,求解E(Sm),计算萤 火虫适应度;
[0088] (3)计算参数,比较萤火虫之间的适应度,利用公式更新萤火虫位置;
[0089] (4)利用个体变异机制进行个体变异更新;
[0090] (5)若达到最大迭代次数,则输出结果,否则cc = cc+1,转步骤(2);
[0091] 步骤5、各序列预测值映射回原区间后叠加得到最终预测结果;
[0092] 步骤6、预测评价:为具体对误差进行量化评价,定义平均绝对误差MAE、平均相对 误差MAPE及均方根误差RMSE如下:
[0093]
[0094]
[0095]
[0096] 其中,N为预测点数,predicti,reali分别为预测和实测的第1点负荷。
[0097] 本实例取自某省电网统计口径2014年1月和7月的实际负荷数据进行仿真计算。其 中1月份的数据为每15min-个采样点,共2976个数据,对最后一天96个点进行预测;7月份 的数据为每lh-个采样点,共744个数据,对最后一天24个点进行预测。原始负荷数据如附 图3所示。
[0098] 由附图3可知,负荷序列波动剧烈,且不同月份,不同时间尺度的负荷数据波动情 况存在差异。对两种时间尺度的负荷数据分别进行3层小波分解与重构,其各序列细节如附 图4所示。由图可知,经过小波变换之后,得到原始负荷序列的低频近似序列和3个高频细节 序列,各序列的独特规律被呈现出来,对其分别进行预测,可以发挥各序列本身的规律性, 同时避免置加后的混乱性,有助于提尚负荷预测的精度。
[0099] 针对上述两种时间尺度的小波变换序列,分别进行预测,叠加得到最终预测值。算 法设置参数设置为:萤火虫算法种群规模为50,迭代次数为1000,自适应参数初值为0.8,极 限学习机激活函数为径向基函数。为进行对比,同时利用经典的ARMA,BP神经网络,支持向 量机,最小二乘支持向量机及标准ELM算法进行预测。
[0100] 为了评价本发明方法,将不同模型两种时间尺度的负荷序列预测结果进行对比, 如附图5所示,并且按照步骤6中进行误差评价,见下表。
[0101] 不同预测算法效果对比
[0102]
[0103]由附图5及上表可见,本发明提出的WD-IFA-ELM混合预测方法,在15min级数据上, 最大绝对误差〇. 62,平均相对误差2.1 %,均方根误差8.9% ;在lh级数据上,最大绝对误差 0.88,平均误差4.2%,均方根误差12.9%。与经典的六1?^,8?神经网络,3¥]\1,1^3¥]\1以及标准 ELM相比,误差均最小,以ARMA为基础,本文在15min和lh级预测上,平均误差分别降低50% 和49.4%,充分表明了本发明算法的优越性。同时对比不同时间尺度也可以发现,时间尺度 越小,预测精度越高。
[0104]本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领 域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替 代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
【主权项】
1. 一种基于小波变换和改进蛋火虫优化极限学习机的短期负荷预测方法,其特征在 于,由W下步骤构成: 步骤1、获取原始负荷序列数据; 步骤2、对原始序列进行3层小波分解,具体是对于短期负荷预测,根据Mallat提出的多 分辨率思想,将非平稳的离散负荷序列S分解为不同频率的高频细节序列di,d2-,dj和一个 低频近似序aj,J为最大分解层数;通常采用化3小波基进行3层分解;其分解过程如下:其中:3^,山分别为原始信号在分辨率2-^下的低频信号和高频信号,是原始信号在相邻 不同频率段上的成分;Η为低通滤波器;G为高通滤波器; 步骤3、对分解后的各序列进行二插值重构:所述步骤2分解过程利用二抽取,使得每层 分解信号比分解前信号数据减半,因此需要进行二插值重构使得信号长度还原;其中:护,为H,G的对偶算子;对山山…山和aj进行重构后,得到细节序Di,D2-Dj 和近似序列Aj,其长度与原始序列相同,并有 S 二 Di+〇2+... Dj+Aj 针对重构后的细节序列和近似序列分别进行预测,可w充分利用分解重构对信号特征 的挖掘,从而减小预测误差; 步骤4、针对重构后各序列进行归一化后分别进行IFA-ELM模型训练和预测,具体包括: (1) 初始化极限学习机的网络数学模型;ELM初始化m,M,n,激活函数g(x);蛋火虫算法 初始化,包括设置种群规模N,蛋火虫位置初始化,最大迭代次数Mi ter,阶=1及自适应参数 初始值初值α〇;迭代次数CC = 1; (2) 对给定的训练样本,将蛋火虫位置映射到待优化变量范围,求解E(SW),计算蛋火虫 适应度; (3) 计算参数,比较蛋火虫之间的适应度,利用公式更新蛋火虫位置; (4) 利用个体变异机制进行个体变异更新; (5) 若达到最大迭代次数,则输出结果,否则cc = cc+l,转步骤(2); 步骤5、各序列预测值映射回原区间后叠加得到最终预测结果; 步骤6、预测评价:为具体对误差进行量化评价,定义平均绝对误差MAE、平均相对误差 MA阳及均方根误差RMSE如下:其中,N为预测点数,町edicti,real汾别为预测和实测的第i点负荷。2. 根据权利要求书1所述的一种基于小波变换和改进蛋火虫优化极限学习机的短期负 荷预测方法,其特征如下,步骤4中极限学习机的网络数学模型包括如下: 极限学习机的网络训练模型采用前向单隐层结构,设m,M,n分别为网络输入层、隐含层 和输出层的节点数,g(X)是隐层神经元的激活函数,bi为阔值;设有N个不同的样本(Xi,ti), 其中Xi= [Xil,Xi2, [til, ti2,…,tin^ERn,极限学习机的网络模型 可用数学表达式表示如下:C1) 式中,ω 1= [ ω 11,ω 12,…,comi]表示连接网络输入层节点与第i个隐层节点与网络输出 层节点的输入权值向量;βι=[βι1,βι2,…,βιη]嗦示连接第i个隐层节点与网络输出层节点 的输出权值向量;0j=[0jl,0j2,…,Ojn] T表不网络输出值; 极限学习机的代价函数E可表示为式中,S=(巧々.,!'=1,2,''',游),包含了网络输入权值及隐层节点阔值;化曰叫等指出极限学 习机的训练目标就是寻求最优的s,i3,使得网络输出值与对应实际值误差最小,即min化(S, β) ;min化(S,0)可进一步写为:(3) 式中,Η表示网络关于样本的隐层输出矩阵,β表示输出权值矩阵,T表示样本集的目标 值矩阵;Η,β,Τ分别定义如下:极限学习机的网络训练过程可归结为一个非线性优化问题,式(6)为目标函数;当网络隐 层节点的激活函数无限可微时,网络输入权值和隐层节点阔值可随机赋值,此时矩阵Η为一 常数矩阵,极限学习机的学习过程可等价为求取线性系统地=Τ最小范数的最小二乘解 其计算式为: β = Η'?, 式中好t是矩阵Η的ΜΡ广义逆,若求解后,极限学习机的训练过程也就完成了。3. 根据权利要求书2所述的一种一种基于小波变换和改进蛋火虫优化极限学习机的短 期负荷预测方法,其特征如下,所述步骤4中改进蛋火虫算法包括如下: (1)基本蛋火虫算法,包括: 1)吸引度:在蛋火虫算法中,吸引度函数的主要形式可W是任意的单调递减函数,通常 如下:(7) r是两蛋火虫之间的距离,β〇是初始吸引度,丫是吸收系数,m通常取2; 2) 蛋火虫之间的距离:两蛋火虫P和q在分别位置xp和xq,两者间的距离可W定义为笛卡 尔或者欧式距离:(8) Xp,s是第p只蛋火虫的第s维空间坐标,d是总共的坐标维度,qe{l,2,…Fn};虽然q是随 机选择的,但是不等于P,Fn表示总的蛋火虫数目;对于其他的应用,如调度安排,距离可W 是任何合适的形式,不局限于笛卡尔距离; 3) 蛋火虫移动:当蛋火虫P被另一只更有吸引力(更亮)的蛋火虫q吸引时,其将发生移 动;(留) 式中的第2部分由蛋火虫之间的吸引决定,第3部分引入了随机参数'a'/'rand"是0到1 之间均匀分布的随机数; (2) 个体变异机制,包括:定义念,分别是当前迭代中的最优及最差个体,随机从 当前种群中选择3个蛋火虫个体Xql,Xq2,Xq3,qi声Q2声Q3 ;通过差分变异得到两个新个体:A是[0,1]之间的随机数;使用上式中的变异个体,产生下述5个新个体:其中Kl,K2,K3,K4,K5,φ和ζ是[0a]之间的随机数;分别计算5个新个体的目标函数,若其 中最小目标函数小于第i个蛋火虫的目标函数值,则用其替代第i个蛋火虫的位置; (3) 参数自适应调整,包括:基本蛋火虫算法中的参数α,控制算法在对邻域蛋火虫位置 未知时进行随机捜索;α的大小控制着随机捜索的范围,较大的α值导致在大范围全局捜索, 较小的α则进行局部捜索;因此,合适的α值设定将平衡算法在全局和局部捜索上的表现;因 此,提出一种随迭代自适应调整的α值控制方式;(17) 其中Iter,kmax分别是当前迭代次数和最大迭代次数;α初值在[〇,1]之间,随着迭代次 数增大,α逐渐减小,控制算法在初始阶段有较强的全局捜索能力,在迭代后期则有较强的 局部捜索能力,加快收敛速度。
【文档编号】G06Q50/06GK105976051SQ201610278857
【公开日】2016年9月28日
【申请日】2016年4月29日
【发明人】陈思远, 方必武, 王佳丽
【申请人】武汉大学
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1