一种基于改进的i-elm的动力电池soc预测方法及装置的制造方法_3

文档序号:9432815阅读:来源:国知局
于期望误差。
[0119] 优选的,步骤103中为隐层输出矩阵增加偏置,进而确定输出权值,具体包括步骤 B1-B2:
[0120] 步骤B1、选取偏置m,隐层输出矩阵M=[也+m),0i2+m),…,化w+m)],其中,为 I-ELM网络的输出矩阵H=比i,h2,…,hj中的矩阵元素,N为训练样本的样本数;
[0121] 步骤B2、根据隐层输出矩阵M和余差E确定输出权值k,输出权值为:
[0122]
[0123] 上述计算余差具体包括:余差为E' =E-kX(m+H),其中,E'为本轮计算重新确定 的余差,并将该E'作为新的余差E。
[0124] 优选的,上述选取偏置m的过程具体包括:
[0125] 根据余差E和I-ELM网络的输出矩阵H确定S个参数Cl,C2,C3,其中,
[0129] 并在两个偏置中选取使误差Z'较小的一个偏置作为最终确定的偏置;
[0130] 其中,误差Z'为:
[0131]
;e;为余差E=[e1,62,…,ej中的余差 兀素;
...-^3
[013引当Ci=0、C2声0且 时,偏置为稱=-;
[013引 当Cl= 0、C2声0且
时,隐层神经元无效,重新训练隐层神经元;
[0134]当Cl二 0、〇2二 0 时,偏置为m二 0。
[0135] 本发明实施例提供的一种基于改进的I-ELM的动力电池S0C预测方法,其在I-ELM 的隐层输出矩阵上加上了一个偏置,该方法能在保持I-ELM结构简单、学习速度快、参数容 易调整且不易陷入局部最小、泛化性能好等优点的同时显著提高I-ELM的误差下降速度, 不仅提高了I-ELM的学习速度,而且提高了I-ELM的测试精度,较好地解决了I-ELM由于输 入权值W及隐层神经元的阔值是随机取得,在训练过程中增加神经元会存在部分隐层神经 元的输出权值过小,导致其对网络输出贡献很小,降低了网络的训练速度,使网络变得更复 杂的问题。综上,该方法具有学习速度快,拥有更好预测精度的优点。可W而准确预测电池 S0C、降低重复充放电对电池的损耗、延长电池的使用寿命,达到降低电池的使用成本的目 的。
[0136] 下面通过一个实施例详细介绍该方法的流程。
[0137]实施例一
[013引在实施例一中,参见图5所示,该基于改进的I-ELM的动力电池S0C预测方法具体 包括步骤501-510 :
[0139] 步骤501:采集训练样本,该训练样本包括动力电池充放电数据和动力电池的S0C 数据。
[0140] 步骤502:对动力电池充放电数据和S0C数据进行归一化处理.
[0141] 该动力电池充放电数据至少包括电压信号、电流信号和溫度信号。
[0142] 步骤503:新增一个隐层神经元,并确定当前隐层神经元的输入权值a和阔值b。
[0143] 步骤504:确定隐层神经元的激励函数,并计算激励函数的输入。
[0144] 在实施例一中,加法隐层神经元的激励函数为:
[0145]
[0146] 径向基隐层神经元的激励函数为:
[0147] g(X)=exp(-X)。
[014引当为加法隐层神经元:将b扩展成一个1XN的矩阵b(每列都相同),然后计算激 励函数的输入:
[014引 X =aX+b
[0150] 当为径向基隐层神经元:将a扩展成一个NXm的矩阵(每行都相同),然后计算 激励函数的输入:
[0151] X =bXI I xT-a I I。
[0152] 步骤505:计算隐层输出矩阵H。
[0153] 对于加法隐层神经元:H=g(x);
[0154] 对于径向基隐层神经元:H=g(x)T。
[01巧]步骤506:为隐层输出矩阵H增加偏置m,并确定输出权值。
[0156] 具体的,在实施例一中,增加偏置m后的II-ELM的隐层输出矩阵可W为M= [化i+m),化2+m),…,化N+m)],其中,为I-ELM网络的输出矩阵H=比i,h2,…,hj中的矩 阵元素,N为训练样本的样本数。
[0157] 此时,输出权值k为:
[0161] 根据上述计算权值k的式子可知,误差Z'具体为:
[0162]
6i为余差E=[e1,62,…,eJ中的余差 兀素。
[0166] 并在两个偏置中选取使误差Z'较小的一个偏置作为最终确定的偏置;
[0167] 其中,误差Z'为:
[016引
为余差E=[e1,62,…,eJ中的余差 兀素;

[016引当Ci=0、C2声0且时,偏置为撕二-产;
[0170] 当Cl=0、C 2声0且
i寸,k=0,此时隐层神经兀无效,需要重新训练隐 层神经元;
[0171]当Cl二0、〇2二0时,偏置为m二0。
[0172] 步骤507:计算余差E。
[0173]余差为E' =E-kX(m+H),其中,E'为本轮计算重新确定的余差。
[0174] 步骤508:判断误差是否大于期望误差,当误差大于期望误差时,继续步骤503,否 则继续步骤509。
[01巧]步骤509 :确定网络模型参数。
[0176] 该参数包括输入权值、隐层神经元的阔值、隐层输出矩阵的偏置和输出权值。
[0177] 步骤510:根据网络模型参数建立改进的I-ELM网络模型,并将现场采集的动力电 池充放电数据进行归一化后输入至改进的I-ELM网络模型中,确定动力电池的荷电状态。
[0178] 图6为II-ELM和I-ELM添加到100个隐层神经元时,动力电池S0C的预测误差 下降曲线,从图中可W发现,不管是用加法隐层神经元还是径向基隐层神经元,II-ELM都比 I-ELM的收敛速度快多了。
[0179] 表1分别给出了II-ELM、I-ELM、BP预测憐酸铁裡动力电池S0C的结果:训练时间 trainingtime(反映学习速度),测试误差均值RISE(反映网络的测试精度),测试误差的 方差均值STD(反映网络的稳定性)。结果是对每个网络训练20次W上取其平均值,它们的 结果都是在MATLABR2009a,3.0GHzCPU和2GRAM的PC机上完成,算法名后括号里的数字 表示该网络的隐层神经元个数。
[0180] 表1各算法用于憐酸铁裡动力电池S0C的预测结果的对比
[0181]
[0182] 由表1可知:①在隐层神经元个数相同的情况下,无论是用加法隐层神经元还是 径向基隐层神经元,II-ELM在训练时间上都与I-ELM相差无几,但是在测试精度上要比 I-ELM和BP更加精确而且更加稳定一些。而BP的训练时间相比于Sigmoid的I-ELM和 II-ELM要长得多。②添加20个隐层神经元的II-ELM与添加100个隐层神经元的I-ELM对 比时可W发现,无论是用加法隐层神经元还是径向基隐层神经元,II-ELM在各方面都优于 1-化]?。
[0183]W上详细介绍了基于改进的I-ELM的动力电池S0C预测方法,该方法也可W通过 相应的装置来实现,下面详细介绍给装置的结构和功能。
[0184] 本发明实施例提供的一种基于改进的I-ELM的动力电池S0C预测装置,参见图7 所示,包括:
[0185] 采集模块71,用于采集训练样本,所述训练样本包括动力电池充放电数据和动力 电池的S0C数据,并对所述动力电池充放电数据和S0C数据进行归一化处理,所述动力电池 充放电数据包括电压信号、电流信号和溫度信号;
[0186] 训练模块72,用于将所述训练样本输入到改进的I-ELM网络中进行训练,确定网 络模型参数;所述改进的I-ELM网络为在I-ELM网络的基础上为隐层输出矩阵增加偏置的 网络,所述网络模型参数包括输入权值、隐层神经元的阔值、隐层输出矩阵的偏置和输出权 值;
[0187] 处理模块73,用于根据所述网络模型参数建立改进的I-ELM网络模型,并将现场 采集的动力电池充放电数据进行归一化处理后输入至所述改进的I-ELM网络模型中,确定 动力电池的荷电状态。
[0188] 优选的,参见图8所示,所述训练模块72包括:
[0189] 获取单元721,用于随机获取隐层神经元的输入权值和阔值,并确定隐层神经元的 激励函数;
[0190] 确定单元722,用于根据所述隐层神经元的输入权值、阔值和激励函数确定当前的 隐层输出矩阵,并为所述隐层输出矩阵增加偏置,进而确定输出权值;
[0191]计算单元723,用于计算余差和误差,余差的初始值与归一化处理后的S0C数据相 对应,误差为余差的平方平均数;当误差不小于期望误差时,增加一个隐层神经元并训练增 加的隐层神经元,直至误差小于期望误差。
[019引优选的,当隐层神经元为加法隐层神经元时,所述隐层神经元的激励函数为:
[0193]
[0194] 当隐层神经元为径向基隐层神经元时,所述隐层神经元的激励函数为:
[0195] g(X)=exp(-X)。
[0196] 优选的,参见图9所示,所述确定单元722包括:
[0197] 选取子单元7221,用于选取偏置m,所述隐层输出矩阵M=[也+m),化2+m),''' ,(Vm)],其中,为I-ELM网络的输出矩阵H=比i,h2,…,hj中的矩阵元素,N为训练样 本的样本
当前第3页1 2 3 4 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1