电池荷电状态预测方法和装置与流程

文档序号:30982318发布日期:2022-08-03 00:54阅读:128来源:国知局
电池荷电状态预测方法和装置与流程

1.本发明涉及电池技术领域,具体涉及一种电池荷电状态预测方法和一种电池荷电状态预测装置。


背景技术:

2.随着化石燃料的大量使用,环境污染问题和能源紧缺越来越严重,各国政府日益重视清洁能源的开发利用。近年来,电动汽车受到了政府和企业的极大关注,市场上出现了不同类型的电动汽车,例如纯动力汽车(bev)、混合动力汽车(hev)、燃料电池汽车(fcev)等等。可充电电池在电动汽车中应用十分广泛,例如铅酸电池、镍镉电池、镍氢电池和锂离子电池。其中锂离子电池因其寿命长、低污染、高功率以及可快速充电等优点被众多企业所看好,其市场占比也在不断提高。然而,锂离子电池会衰老,即随着使用次数的增加,它的容量会逐渐衰减。有很多原因会造成锂离子电池容量衰减速度加快,包括温度过高、过充电、过放电、充满电后长时间不使用等等。要防止过充电和过放电,就必须对电池的荷电状态(soc)有一个准确的预测。


技术实现要素:

3.本发明为解决如何准确预测电池荷电状态的技术问题,提供了一种电池荷电状态预测方法和装置,能够准确地预测电池的荷电状态。
4.本发明采用的技术方案如下:
5.一种电池荷电状态预测方法,包括以下步骤:s1,对样本电池进行充放电实验,采集所述样本电池每次充放电的实验数据,并获取所述样本电池多次充放电的实验数据;s2,对所述样本电池每次充放电的实验数据和多次充放电的实验数据进行预处理和特征工程,得到由特征向量构成的数据集,并将所述数据集分为训练集和测试集;s3,构建wide&deep神经网络模型;s4,通过所述训练集对所述wide&deep神经网络模型进行训练,以得到荷电状态预测器,并通过所述测试集对所述荷电状态预测器进行测试,其中,通过网格搜索法寻找所述wide&deep神经网络模型的最优参数;s5,通过步骤s4最终得到的所述荷电状态预测器对待预测电池的荷电状态进行预测。
6.所述样本电池每次充放电的实验数据包括的端电压、电流、荷电状态,所述样本电池多次充放电的实验数据包括多次充放电所述样本电池最大充电量的变化趋势、每次充放电充电量与放电量的差值、每次充放电电压和电流的变化趋势。
7.步骤s2中进行特征工程所得到的特征包括电压、电流、电压与电流的一次导数,二次导数和充放电次数。
8.所述wide&deep神经网络模型包括wide部分、deep部分和联合部分。
9.步骤s4中需要寻优的参数包括迭代次数、学习率、隐藏层神经元个数和隐藏层层数。
10.一种电池荷电状态预测装置,包括:数据获取模块,所述数据获取模块用于在对样
本电池进行充放电实验时,采集所述样本电池每次充放电的实验数据,并获取所述样本电池多次充放电的实验数据;数据处理模块,所述数据处理模块用于对所述样本电池每次充放电的实验数据和多次充放电的实验数据进行预处理和特征工程,得到由特征向量构成的数据集,并将所述数据集分为训练集和测试集;模型构建模块,所述模型构建模块用于构建wide&deep神经网络模型;模型训练模块,所述模型训练模块用于通过所述训练集对所述wide&deep神经网络模型进行训练,以得到荷电状态预测器,并通过所述测试集对所述荷电状态预测器进行测试,其中,通过网格搜索法寻找所述wide&deep神经网络模型的最优参数;预测模块,所述预测模块用于通过所述模型训练模块最终得到的所述荷电状态预测器对待预测电池的荷电状态进行预测。
11.所述样本电池每次充放电的实验数据包括的端电压、电流、荷电状态,所述样本电池多次充放电的实验数据包括多次充放电所述样本电池最大充电量的变化趋势、每次充放电充电量与放电量的差值、每次充放电电压和电流的变化趋势。
12.所述数据处理模块进行特征工程所得到的特征包括电压、电流、电压与电流的一次导数,二次导数和充放电次数。
13.所述wide&deep神经网络模型包括wide部分、deep部分和联合部分。
14.所述模型训练模块需要寻优的参数包括迭代次数、学习率、隐藏层神经元个数和隐藏层层数。
15.本发明的有益效果:
16.本发明通过对样本电池进行充放电实验以获取相关数据,并构建wide&deep神经网络模型,基于所获取的数据对wide&deep神经网络模型进行训练,得到荷电状态预测器,最后以荷电状态预测器对待预测电池的荷电状态进行预测,由此,将线性回归与深度神经网络结合,能够准确地预测电池的荷电状态。
附图说明
17.图1为本发明实施例的电池荷电状态预测方法的流程图;
18.图2为本发明一个实施例的wide&deep神经网络模型的结构示意图;
19.图3为本发明一个实施例的wide&deep神经网络模型数据的输入输出过程示意图;
20.图4为本发明实施例的电池荷电状态预测装置的方框示意图。
具体实施方式
21.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
22.如图1所示,本发明实施例的电池荷电状态预测方法包括以下步骤:
23.s1,对样本电池进行充放电实验,采集样本电池每次充放电的实验数据,并获取样本电池多次充放电的实验数据。
24.充放电实验所采用的样本电池数量和对每个样本电池的充放电次数可根据对后续数据集中数据量的大小来设定。
25.在本发明的一个具体实施例中,可使用两块额定容量为2000mah的18650-20r锂离子电池进行充放电实验。充放电的具体操作如下:充电时采用cc-cv充电,首先,用27a的恒定电流对样本电池进行恒流充电直到终端电压达到4.2v,之后保持终端电压为4.2v不变进行恒压充电直到电流降至2.7a停止充电;放电时采用cc放电,保持电流为81a不变对样本电池进行恒流放电,当终端电压降至2.75v时停止放电。对于每个样本电池,上述过程反复进行100次,每次间隔30分钟,环境温度始终为40℃。
26.在每一次充放电时,均采集样本电池的端电压、电流、荷电状态数据,作为样本电池每次充放电的实验数据,上述实验过程共可得到200组每次充放电的实验数据。
27.将每次充放电的实验数据结合起来进行充放电特性的分析,便可得到多次充放电的实验数据,本发明实施例中样本电池多次充放电的实验数据包括多次充放电样本电池最大充电量的变化趋势、每次充放电充电量与放电量的差值、每次充放电电压和电流的变化趋势。
28.其中,在实际情况中电池的最大充电容量会随着充电次数的增加而减少,由于实验时对电流电压和温度进行了严格的控制,所以避免了过度充放电以及外部环境对电池容量的影响。因此本发明实施例的充放电实验中的电池容量衰减主要由电池内部因素引起,在电极方面,反复充放电使电极活性表面积减少,活性材料的结构发生变化,活性颗粒的电接触变差;在电解质溶液方面,电解液或导电盐分解导致其电导率下降,分解物造成界面钝化。
29.每次充放电过程中,锂离子电池的放电容量往往小于充电容量。这主要由两个原因引起,一是在最开始的几轮充电过程中,负极表面会形成固体电解质界面,这便消耗了来自正极的锂离子,随后的放电过程中这部分锂离子不再参与放电。二是由于正常情况下,极少量的锂离子嵌入负极后无法脱出造成的。
30.随着充放电次数的增加,充电时终端电压会更快的达到4.2v从而进入恒压充电阶段。
31.s2,对样本电池每次充放电的实验数据和多次充放电的实验数据进行预处理和特征工程,得到由特征向量构成的数据集,并将数据集分为训练集和测试集。
32.对于上述样本电池每次充放电的实验数据和多次充放电的实验数据,首先可进行预处理,去掉无用的数据,然后进行特征工程,制作出电压、电流、电压与电流的一次导数,二次导数和充放电次数等特征,进而对制作出的所有特征进行主成分分析并转化为特征向量,构成数据集。
33.本发明实施例以第50次充放电过程中的数据作为测试集,其余数据用作训练集。
34.s3,构建wide&deep神经网络模型。
35.s4,通过训练集对wide&deep神经网络模型进行训练,以得到荷电状态预测器,并通过测试集对荷电状态预测器进行测试,其中,通过网格搜索法寻找wide&deep神经网络模型的最优参数。
36.wide&deep神经网络模型包括wide部分、deep部分和联合部分,其结构如图2所示。
37.其中,wide部分是广义的线形模型,wide部分公式如下:
38.y
wide
=w
widet
x+b
wide
39.其中,y
wide
是wide部分的预测值,w
widet
=[w1,w2,...,wn]、b
wide
是wide部分的特征
权重和偏置,x=[x1,x2,...,xn]
t
是特征向量。
[0040]
wide部分使用到的特征一般是原始特征,或是由原始特征经过一些简单的变换得到的新特征。使用的最普遍的变换方法是交叉积变换(cross-product),一般应用在类别类特征上。交叉积变换得到的是非线性特征,可以捕获到原始特征之间的高阶相关性。原始的dense特征若要进行交叉积变换则要分桶离散化。加入了交叉积特征的wide模型的优点在于模型具有较高的可解释性,特征重要性易于分析。
[0041]
deep部分是一个前馈神经网络,它由输入层、隐藏层、输出层三部分构成。输入的特征一般包括sparse和dense特征,dense特征可以直接输入,sparse特征要先编码成向量形式再输入,sparse特征维度较低时可以采用简单的one-hot编码方式。当sparse特征维度较高时,使用one-hot会发生维度爆炸,此时可以将sparse特征训练成低维的词向量。
[0042]
将特征输入后会进入隐藏层,隐藏层中的每个神经元会进行如下的运算:
[0043][0044]
其中,是第l个隐藏层第i个神经元的权重与偏置,x
l
是第l层的激活值,维数与第l层的神经元个数相等,是第l+1层的第i个激活值,f是激活函数,本发明实施例中使用relu函数作为激活函数,其函数表达式如下:
[0045]
f(x)=max(0,x)
[0046]
deep部分可以弥补wide部分的缺陷,deep部分不需要较多的人工参与,却可以对wide部分无法构造的交叉特征有更好的泛化性。
[0047]
联合部分可将wide层的输出和deep层输出的对数加权和作为最终的预测值,计算公式如下:
[0048][0049]
其中,σ是sigmod函数,是用于deep层最终激活值的权重,是deep层最后一层隐藏层的激活值。模型选取logistic loss作为损失函数,损失计算如下:
[0050][0051]
其中,m是训练样本个数,y(i)、为第i个样本的真实值与预测值,ω是正则化项。之后要根据损失来更新权重和偏置,使用adagrad作为模型的优化器,计算公式如下:
[0052][0053][0054][0055]
其中,η是学习率,ε是一个极小值用来防止分母为0,gt是对应参数梯度的平方累积。
[0056]
本发明实施例利用wide&deep神经网络模型来预测电池的荷电状态,在将电流i、电压v、电压的一次导数dv、电流的一次导数di、电压的二次导数d2v、电流的二次导数d2i和电池充电次数cycle输入模型前都要进行归一化。本发明实施例所采用的归一化方法是最大最小值归一化,归一化公式如下:
[0057][0058]
其中,xi是原始值,x
min
、x
max
分别是特征的最小值和最大值,xi'是归一化后的数据值。
[0059]
wide部分的输入为原始的7个特征,对于deep部分,首先将7个原始特征用pca处理成embedding数据,再输入到模型中,wide&deep神经网络模型数据的输入输出过程如图3所示。
[0060]
在本发明的实施例中,可通过网格搜索法寻找wide&deep神经网络模型的最优参数,需要寻优的参数包括迭代次数、学习率、隐藏层神经元个数和隐藏层层数。其中,学习率取值为0.1、0.01、0.001、0.0001或0.00001,隐藏层神经元个数取值范围为0至200,隐藏层层数取值为1、2或3。
[0061]
本发明实施例中一些参数的确定方式如下:
[0062]
(1)迭代次数的确定
[0063]
当一个完整的数据集通过了神经网络一次并且反向传播了一次,这个过程称为一次迭代,一般来说,只将所有数据训练一次是无法得到较好的预测模型的,也就是所谓的欠拟合。所以需要将数据集在模型上多迭代几次,不过,迭代次数的增加有可能导致过拟合训练集,而在测试集上的表现不佳,同时模型的训练时间也会随迭代次数的增加而增加。为了寻找合适的迭代次数,在保持其他参数不变的情况下,使用wide&deep神经网络模型对训练数据进行了200次迭代训练,每迭代一次就计算一次rmse和mape值,结果如表1所示。从表中可以看出,在前几次迭代中,预测结果的rmse和mape值急剧下降,50次迭代后保持稳定,100次迭代之后的表现几乎是一样的。在测试性能和训练时间之间进行权衡,迭代100次是最佳选择。
[0064]
表1
[0065][0066]
(2)学习率的确定
[0067]
学习速率代表了神经网络中随时间推移,信息累积的速度,学习率是最影响性能的超参数之一。选择最优学习率是很重要的,因为它决定了神经网络是否可以收敛到全局最小值。选择较高的学习率,它可能在损失函数上带来不理想的后果,神经网络几乎从来不能收敛到全局最小值,因为神经网络很可能跳过它。选择较小的学习率有助于神经网络收敛到全局最小值,但是会花费很多时间——因为神经网络在网络的权重上只做了很少的调整。这样你必须用更多的时间来训练神经网络。较小的学习率也更可能使神经网络困在局部极小值里面,也就是说,神经网络会收敛到一个局部极小值,而且因为学习率比较小,它无法跳出局部极小值。所以,在设置学习率的时候必须非常谨慎。实验中,神经网络模型采用固定的学习率,取值包括0.1、0.01、0.001、0.0001、0.00001,预测效果如表2所示。从表中可以看出,当学习率较大时,预测结果的rmse和mape不是很理想,这说明神经网络无法收敛到全局极小值。当学习率为0.01时,预测结果很好。当学习率继续降低到0.001和0.0001时,预测效果反而变差,这是因为神经网络在很早的时候就收敛到了某个局部极小值,之后因为学习率太低,就一直在这个局部极小值附近波动而无法达到全局极小值。因此,本发明实施例中使用wide&deep神经网络模型训练数据时,将学习率设置为0.01。
[0068]
表2
[0069][0070]
(3)隐藏层层数的确定
[0071]
神经网络中的隐藏层让神经网络拥有了拟合高阶复杂函数的能力。一般来说,当神经网络只有一层隐藏层时,它便可以拟合任何“包含从一个有限空间到另一个有限空间的连续映射”的函数;当有两层隐藏层时,搭配适当的激活函数可以表示任意精度的任意决策边界,并且可以拟合任何精度的任何平滑映射;当神经网络拥有两层以上的隐藏层时,多出来的隐藏层可以学习复杂的描述。本发明实施例中测试了隐藏层为1、2、3层时wide&deep神经网络模型的预测效果,结果如表3所示。从表中可以看出,当隐藏层层数为3时模型的预测效果最好,因为锂离子电池是一个高度复杂的非线性系统,所以需要更多的隐藏层去表示它。
[0072]
表3
[0073][0074]
(4)隐藏层神经元个数的确定
[0075]
在隐藏层中使用太少的神经元将导致欠拟合。相反,使用过多的神经元同样会导致一些问题。首先,隐藏层中的神经元过多可能会导致过拟合。当神经网络具有过多的节点(过多的信息处理能力)时,训练集中包含的有限信息量不足以训练隐藏层中的所有神经元,因此就会导致过拟合。即使训练数据包含的信息量足够,隐藏层中过多的神经元会增加训练时间,从而难以达到预期的效果。显然,选择一个合适的隐藏层神经元数量是至关重要的。为了寻找合适的神经元个数,使用wide&deep模型在不同的隐藏层神经元个数下进行实验,结果如表4所示。从表中可以看出,当隐藏层神经元个数为120到160之间时模型的预测效果最好,所以本发明实施例中wide&deep神经网络模型的隐藏层神经元个数设置为140。
[0076]
表4
[0077][0078][0079]
s5,通过步骤s4最终得到的荷电状态预测器对待预测电池的荷电状态进行预测。
[0080]
在完成模型的训练后,通过训练好的模型,即荷电状态预测器,可实现对待预测电池荷电状态的预测。具体地,可获取待预测电池的充放电数据,进行预处理和特征工程后得到电压、电流、电压与电流的一次导数,二次导数和充放电次数等数据,然后将这些数据输入荷电状态预测器,并通过荷电状态预测器输出荷电状态预测结果。
[0081]
在预测到电池的荷电状态后,可基于预测结果对电池进行充放电的控制,以防止电池过充或过放。
[0082]
根据本发明实施例的电池荷电状态预测方法,通过对样本电池进行充放电实验以获取相关数据,并构建wide&deep神经网络模型,基于所获取的数据对wide&deep神经网络模型进行训练,得到荷电状态预测器,最后以荷电状态预测器对待预测电池的荷电状态进行预测,由此,将线性回归与深度神经网络结合,能够准确地预测电池的荷电状态。
[0083]
对应上述实施例的电池荷电状态预测方法,本发明还提出一种电池荷电状态预测装置。
[0084]
如图4所示,本发明实施例的电池荷电状态预测装置包括数据获取模块10、数据处理模块20、模型构建模块30、模型训练模块40和预测模块50。其中,数据获取模块10用于在对样本电池进行充放电实验时,采集样本电池每次充放电的实验数据,并获取样本电池多次充放电的实验数据;数据处理模块20用于对样本电池每次充放电的实验数据和多次充放电的实验数据进行预处理和特征工程,得到由特征向量构成的数据集,并将数据集分为训练集和测试集;模型构建模块30用于构建wide&deep神经网络模型;模型训练模块40用于通过训练集对wide&deep神经网络模型进行训练,以得到荷电状态预测器,并通过测试集对荷
电状态预测器进行测试,其中,通过网格搜索法寻找wide&deep神经网络模型的最优参数;预测模块50用于通过模型训练模块40最终得到的荷电状态预测器对待预测电池的荷电状态进行预测。
[0085]
在本发明的一个具体实施例中,可使用两块额定容量为2000mah的18650-20r锂离子电池进行充放电实验。充放电的具体操作如下:充电时采用cc-cv充电,首先,用27a的恒定电流对样本电池进行恒流充电直到终端电压达到4.2v,之后保持终端电压为4.2v不变进行恒压充电直到电流降至2.7a停止充电;放电时采用cc放电,保持电流为81a不变对样本电池进行恒流放电,当终端电压降至2.75v时停止放电。对于每个样本电池,上述过程反复进行100次,每次间隔30分钟,环境温度始终为40℃。
[0086]
在每一次充放电时,数据获取模块10均采集样本电池的端电压、电流、荷电状态数据,作为样本电池每次充放电的实验数据,上述实验过程共可得到200组每次充放电的实验数据。
[0087]
数据获取模块10将每次充放电的实验数据结合起来进行充放电特性的分析,便可得到多次充放电的实验数据,本发明实施例中样本电池多次充放电的实验数据包括多次充放电样本电池最大充电量的变化趋势、每次充放电充电量与放电量的差值、每次充放电电压和电流的变化趋势。
[0088]
对于上述样本电池每次充放电的实验数据和多次充放电的实验数据,数据处理模块20首先可进行预处理,去掉无用的数据,然后进行特征工程,制作出电压、电流、电压与电流的一次导数,二次导数和充放电次数等特征,进而对制作出的所有特征进行主成分分析并转化为特征向量,构成数据集。
[0089]
本发明实施例以第50次充放电过程中的数据作为测试集,其余数据用作训练集。
[0090]
wide&deep神经网络模型包括wide部分、deep部分和联合部分,其结构如图2所示。
[0091]
其中,wide部分是广义的线形模型,wide部分公式如下:
[0092]ywide
=w
widet
x+b
wide
[0093]
其中,y
wide
是wide部分的预测值,w
widet
=[w1,w2,...,wn]、b
wide
是wide部分的特征权重和偏置,x=[x1,x2,...,xn]
t
是特征向量。
[0094]
wide部分使用到的特征一般是原始特征,或是由原始特征经过一些简单的变换得到的新特征。使用的最普遍的变换方法是交叉积变换(cross-product),一般应用在类别类特征上。交叉积变换得到的是非线性特征,可以捕获到原始特征之间的高阶相关性。原始的dense特征若要进行交叉积变换则要分桶离散化。加入了交叉积特征的wide模型的优点在于模型具有较高的可解释性,特征重要性易于分析。
[0095]
deep部分是一个前馈神经网络,它由输入层、隐藏层、输出层三部分构成。输入的特征一般包括sparse和dense特征,dense特征可以直接输入,sparse特征要先编码成向量形式再输入,sparse特征维度较低时可以采用简单的one-hot编码方式。当sparse特征维度较高时,使用one-hot会发生维度爆炸,此时可以将sparse特征训练成低维的词向量。
[0096]
将特征输入后会进入隐藏层,隐藏层中的每个神经元会进行如下的运算:
[0097][0098]
其中,是第l个隐藏层第i个神经元的权重与偏置,x
l
是第l层的激活值,维
数与第l层的神经元个数相等,是第l+1层的第i个激活值,f是激活函数,本发明实施例中使用relu函数作为激活函数,其函数表达式如下:
[0099]
f(x)=max(0,x)
[0100]
deep部分可以弥补wide部分的缺陷,deep部分不需要较多的人工参与,却可以对wide部分无法构造的交叉特征有更好的泛化性。
[0101]
联合部分可将wide层的输出和deep层输出的对数加权和作为最终的预测值,计算公式如下:
[0102][0103]
其中,σ是sigmod函数,是用于deep层最终激活值的权重,是deep层最后一层隐藏层的激活值。模型选取logistic loss作为损失函数,损失计算如下:
[0104][0105]
其中,m是训练样本个数,y(i)、为第i个样本的真实值与预测值,ω是正则化项。之后要根据损失来更新权重和偏置,使用adagrad作为模型的优化器,计算公式如下:
[0106][0107][0108][0109]
其中,η是学习率,ε是一个极小值用来防止分母为0,gt是对应参数梯度的平方累积。
[0110]
本发明实施例利用wide&deep神经网络模型来预测电池的荷电状态,在将电流i、电压v、电压的一次导数dv、电流的一次导数di、电压的二次导数d2v、电流的二次导数d2i和电池充电次数cycle输入模型前都要进行归一化。本发明实施例所采用的归一化方法是最大最小值归一化,归一化公式如下:
[0111][0112]
其中,xi是原始值,x
min
、x
max
分别是特征的最小值和最大值,xi'是归一化后的数据值。
[0113]
wide部分的输入为原始的7个特征,对于deep部分,首先将7个原始特征用pca处理成embedding数据,再输入到模型中,wide&deep神经网络模型数据的输入输出过程如图3所示。
[0114]
在本发明的实施例中,可通过网格搜索法寻找wide&deep神经网络模型的最优参数,需要寻优的参数包括迭代次数、学习率、隐藏层神经元个数和隐藏层层数。其中,学习率取值为0.1、0.01、0.001、0.0001或0.00001,隐藏层神经元个数取值范围为0至200,隐藏层
层数取值为1、2或3。
[0115]
在模型训练模块40完成模型的训练后,通过训练好的模型,即荷电状态预测器,可实现对待预测电池荷电状态的预测。具体地,可获取待预测电池的充放电数据,进行预处理和特征工程后得到电压、电流、电压与电流的一次导数,二次导数和充放电次数等数据,然后预测模块50将这些数据输入荷电状态预测器,并通过荷电状态预测器输出荷电状态预测结果。
[0116]
根据本发明实施例的电池荷电状态预测装置,通过对样本电池进行充放电实验以获取相关数据,并构建wide&deep神经网络模型,基于所获取的数据对wide&deep神经网络模型进行训练,得到荷电状态预测器,最后以荷电状态预测器对待预测电池的荷电状态进行预测,由此,将线性回归与深度神经网络结合,能够准确地预测电池的荷电状态。
[0117]
在本发明的描述中,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。“多个”的含义是两个或两个以上,除非另有明确具体的限定。
[0118]
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
[0119]
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
[0120]
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必针对相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
[0121]
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
[0122]
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执
行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(ram),只读存储器(rom),可擦除可编辑只读存储器(eprom或闪速存储器),光纤装置,以及便携式光盘只读存储器(cdrom)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
[0123]
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(pga),现场可编程门阵列(fpga)等。
[0124]
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
[0125]
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
[0126]
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1