电网紧急切负荷控制方法、系统、设备及存储介质与流程

文档序号:29038498发布日期:2022-02-25 19:51阅读:162来源:国知局
电网紧急切负荷控制方法、系统、设备及存储介质与流程

1.本发明涉及电网紧急控制领域,具体涉及一种电网紧急切负荷控制方法、系统、设备及存储介质。


背景技术:

2.现代电力系统是一个典型的非线性系统,为了维持电力系统的性能稳定,将系统的母线电压控制在标准的范围内是非常必要的。传统的电压调节的规则和方法,大多依靠历史经验和离线研究,效果不是非常理想,有时过于保守,有时又存在风险,不能很好的满足电力系统的随机变化。于此同时,随着电力系统的规模不断增大,新能源、电动汽车等不确定因素的加入,导致电力系统的安全稳定运行更加具有挑战性。近年来,世界各地发生的大停电事故时有发生。因此,在电力系统故障早期采取措施减少有功功率的不平衡是防止电网崩溃的主要方法。当系统负荷功率需求超过系统发电机出力极限时,主动或被动地切除部分负荷容量,是维持电力系统稳定的重要措施。随着人工智能技术的逐渐兴起,以及在电力领域的应用程度逐渐深入。电力系统亟需一种紧急状态下自动切负荷的人工智能方法,从而进一步保证电网安全稳定运行。
3.目前,强化学习被应用于电网紧急状态的控制应用主要集中于发电机的切机控制,并且大多数采用的是q-learning离散式控制动作对发电机进行切除。如基于竞争q网络和双重q网络相结合的切机控制策略;或通过使用卷积神经网络作为函数逼近器来估计状态作用q函数;或通过改进q-learning算法,加快算法的收敛速度,控制发电机出力,实现对电力系统进行电压控制策略生成等。上述研究主要针对发电机进行控制,dqn(深度q网络)算法及其衍生出的一些其他算法,在学习离散动作策略上取了一定的效果,可是在处理连续动作策略问题方面比较困难,虽然也可以把连续动作进行离散化处理,但是离散化后激增的动作空间将会使算法陷入维数灾难。而现有的应急控制方案通常是根据若干个典型的运行场景进行离线设计的,并且采样深度强化学习对切负荷的研究比较少,尤其采用连续动作控制的深度强化学习方法的研究较少,而且奖励函数设置的相对比较简单。随着现代电网中不确定性和变化的增加,控制防范将面临着重要的适应性和精细化问题。


技术实现要素:

4.本发明的目的在于提供一种基于深度强化学习的电网紧急切负荷控制方法、系统、设备及存储介质,以克服现有技术存在的缺陷,本发明通过采用连续动作控制的深度强化学习算法对电网紧急状态切负荷进行研究,为保障电力系统安全稳定运行提供了智能可行的解决方案。
5.为达到上述目的,本发明采用如下技术方案:
6.电网紧急切负荷控制方法,所述方法包括:
7.获取故障情况下电力系统状态空间;
8.将所述故障情况下电力系统状态空间输入切负荷控制模型中,得到切负荷动作,
其中,所述切负荷控制模型通过对深度强化学习网络进行仿真训练得到。
9.进一步地,所述电力系统状态空间包括下述中的至少一种:母线负荷有功功率;母线负荷无功功率;母线节点电压;发电机有功功率;发电机无功功率;发电机转速;发电机功角。
10.进一步地,所述切负荷动作满足以下条件:如果电力系统的电网网架结构节点数小于等于第一阈值,并且可参与调节的负荷节点数小于等于第二阈值,则所有负荷都进行切负荷动作调节;如果电力系统的电网网架结构节点数大于第一阈值,并且可参与调节的负荷节点数大于第二阈值时,采用灵敏度分析法,对负荷节点电压灵敏度按照从大到小进行排序,选取排在前n个的负荷节点优先进行切除,n为正整数;
11.参与调节的负荷节点切负荷动作设置在[0%,m%]之间,且能够进行连续性动作调节,m%为负荷节点能够切除的最大上限。
[0012]
进一步地,所述切负荷控制模型的建立过程为:
[0013]
模拟电力系统潮流初始化;
[0014]
设置负荷随机波动;
[0015]
设置电力系统故障,根据故障时电力系统潮流计算结果,判断此时电力系统的总负荷的有功功率是否大于总发电机组的有功功率,如果大于,则进行切负荷动作,如果不大于则重新潮流初始化;
[0016]
根据切负荷动作后电力系统潮流计算结果,判断潮流计算结果是否满足约束条件,若所有约束条件均满足,则直接通过奖励函数计算最终奖励值,完成训练;若有任一约束条件不满足,则通过奖励函数和惩罚函数计算当前奖励值,重新进行切负荷动作,直至所有约束条件均满足,将本轮仿真训练每一步计算的当前奖励值相加得到最终奖励值,完成训练。
[0017]
进一步地,所述奖励函数设计如下:
[0018][0019]
所述惩罚函数设计如下:
[0020][0021]
式中:l
step
为深度强化学习的迭代步数,v为电力系统节点电压值,p
loadi
和q
loadi
分别为电力系统内第i个负荷节点切除的有功功率和无功功率;p
geni
为电力系统内第i个发电
机节点的有功功率;p
bal
为电力系统内平衡机的有功功率;p
loadi max
和q
loadi max
分别为第i个负荷节点可切除的有功功率和无功功率的最大上限;p
geni max
为电力系统内第i个发电机有功功率出力最大上限;p
bal max
为平衡机控制出力的上限;λ1为奖励权重系数,c1,c2,c3,c4,c5分别为结果满足约束条件时的奖励常数值,λ2,η,δ,γ分别为结果不满足约束条件时的惩罚权重系数,c6为潮流不收敛时的惩罚常数值,r
1-r6是对应约束条件下的奖励值或惩罚值;
[0022]
将上述奖励值或惩罚值加和,得到深度强化学习切负荷动作每一步计算的当前奖励值,如下式所示:
[0023][0024]
式中,rk为第k步的当前奖励值,rj为第k步深度强化学习训练时,结果满足或不满足约束条件时的奖励值和惩罚值;
[0025]
将每一步的当前奖励值加和,即得到本轮仿真训练的最终奖励值,如下式所示:
[0026][0027]
式中,rk为第k步的当前奖励值,r
sum
为本轮深度强化学习仿真训练时获得的最终奖励值,l
step
为深度强化学习的迭代步数。
[0028]
进一步地,在得到切负荷动作后,通过无功功率补偿调节电力系统无功功率,使电力系统的节点电压得到进一步优化提升。
[0029]
进一步地,所述通过无功补偿调节电力系统无功功率具体为:通过发电机节点注入无功和投切电容电抗器实现电力系统节点电压进一步优化。
[0030]
电网紧急切负荷控制系统,包括故障情况下电力系统状态空间获取模块以及切负荷动作输出模块,其中;
[0031]
故障情况下电力系统状态空间获取模块:用于获取故障情况下电力系统状态空间;
[0032]
切负荷动作输出模块:用于将所述故障情况下电力系统状态空间输入切负荷控制模型中,得到切负荷动作,其中,所述切负荷控制模型通过对深度强化学习网络进行仿真训练得到。
[0033]
进一步地,所述切负荷控制模型的建立过程为:
[0034]
模拟电力系统潮流初始化;
[0035]
设置负荷随机波动;
[0036]
设置电力系统故障,根据故障时电力系统潮流计算结果,判断此时电力系统的总负荷的有功功率是否大于总发电机组的有功功率,如果大于,则进行切负荷动作,如果不大于则重新潮流初始化;
[0037]
根据切负荷动作后电力系统潮流计算结果,判断潮流计算结果是否满足约束条件,若所有约束条件均满足,则直接通过奖励函数计算最终奖励值,完成训练;若有任一约束条件不满足,则通过奖励函数和惩罚函数计算当前奖励值,重新进行切负荷动作,直至所有约束条件均满足,将本轮仿真训练每一步计算的当前奖励值相加得到最终奖励值,完成训练。
[0038]
进一步地,所述奖励函数设计如下:
[0039][0040]
所述惩罚函数设计如下:
[0041][0042]
式中:l
step
为深度强化学习的迭代步数,v为电力系统节点电压值,p
loadi
和q
loadi
分别为电力系统内第i个负荷节点切除的有功功率和无功功率;p
geni
为电力系统内第i个发电机节点的有功功率;p
bal
为电力系统内平衡机的有功功率;p
loadi max
和q
loadi max
分别为第i个负荷节点可切除的有功功率和无功功率的最大上限;p
geni max
为电力系统内第i个发电机有功功率出力最大上限;p
bal max
为平衡机控制出力的上限;λ1为奖励权重系数,c1,c2,c3,c4,c5分别为结果满足约束条件时的奖励常数值,λ2,η,δ,γ分别为结果不满足约束条件时的惩罚权重系数,c6为潮流不收敛时的惩罚常数值,r
1-r6是对应约束条件下的奖励值或惩罚值;
[0043]
将上述奖励值或惩罚值加和,得到深度强化学习切负荷动作每一步计算的当前奖励值,如下式所示:
[0044][0045]
式中,rk为第k步的当前奖励值,rj为第k步深度强化学习训练时,结果满足或不满足约束条件时的奖励值和惩罚值;
[0046]
将每一步的当前奖励值加和,即得到本轮仿真训练的最终奖励值,如下式所示:
[0047][0048]
式中,rk为第k步的当前奖励值,r
sum
为本轮深度强化学习仿真训练时获得的最终奖励值,l
step
为深度强化学习的迭代步数。
[0049]
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现所述电网紧急切负荷控制方法的步骤。
[0050]
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现所述电网紧急切负荷控制方法的步骤。
[0051]
与现有技术相比,本发明具有以下有益的技术效果:
[0052]
本发明应用于电网紧急状态切负荷自动控制领域,利用深度强化学习的人工智能算法,提升电网紧急状态下切负荷控制动作人工操作准确效率,并且可以快速给出控制策略,大大节省运行人员的反应时间。
[0053]
进一步地,本发明通过结合电力系统稳定运行理论,即控制电压稳定在规定区间内,同时考虑了实际电力系统运行约束问题,利用深度强化学习方法,构建切负荷状态空间和动作空间,并通过设置符合电网运行经验的约束奖励函数引导控制策略生成,可以满足一种或多种故障类型的控制策略生成,可以有效避免传统方法反复的物理建模,使得算法具有一定的泛化能力。
[0054]
进一步地,本发明可以有效的保证电力系统安全稳定运行,提升了电力系统紧急状态下切负荷控制策略水平。
附图说明
[0055]
说明书附图用来提供对本发明的进一步理解,构成本发明的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
[0056]
图1为本发明具体实施方式的流程图。
[0057]
图2为本发明深度强化学习仿真训练流程图。
[0058]
图3为ieee39节点系统结构图。
[0059]
图4为ieee39节点系统控制动作后节点电压曲线图。
具体实施方式
[0060]
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
[0061]
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
[0062]
为增强大电网安全稳定运行能力,提高抗干扰能力,实现电力系统紧急状态切负荷自动控制,本发明提供了一种基于深度强化学习的电网紧急状态切负荷控制方法。本发明采用一种基于人工智能的切负荷控制策略,通过深度强化学习选择的切负荷动作策略可以支持自动电压控制,即控制电压稳定在规定区间内。本发明方法以电力系统运行数据为基础数据,构建状态空间和动作空间,然后建立符合电网运行特点的基于深度强化学习的电压稳定约束奖励函数,以计算深度强化学习的奖励值,并采用具有连续动作策略的深度
确定策略梯度(ddpg)算法,从而实现数据和模型的联合驱动。最后,对深度强化学习网络进行持续训练,得到电力系统紧急控制情况下电网电压控制问题的切负荷自动调整策略,该方法能够实现有效地进行准确的切负荷动作选择,提高电力系统的稳定运行能力。
[0063]
如图1所示,本发明提供了一种基于深度强化学习的电力系统紧急切负荷控制方法,该方法包括:
[0064]
构建深度强化学习状态空间
[0065]
由于深度强化学习需要智能体(深度强化学习网络)与环境进行不断的交互,因此电网紧急状态切负荷控制策略中,状态空间需要能够体现电网潮流运行状态的数据,以此来监视电网当前运行状态,以及切负荷控制策略执行后,电网运行状态恢复情况。综上考虑,选取电力系统可观测的运行状态变量如母线负荷有功功率、母线负荷无功功率、母线节点电压、发电机有功功率、发电机无功功率、发电机转速、发电机功角等参量作为深度强化学习状态空间的组成部分。
[0066]
构建深度强化学习切负荷动作条件
[0067]
考虑到对于电网紧急状态切负荷而言,并不是所有负荷都能进行随意切除,只有部分可以调节的负荷才能参与切负荷动作,而且对于维持母线节点电压稳定,也并非所有可调节的负荷参与调整都会对其产生明显的影响,因此,这里主要做两方面考虑,一方面如果电力系统的电网网架结构比较小,即电网网架结构节点数小于等于第一阈值,可参与调节的负荷比较少,即可参与调节的负荷节点数小于等于第二阈值,则所有负荷都进行切负荷动作调节;另一方面如果电力系统的电网网架结构比较大,即电网网架结构节点数大于第一阈值,并且可参与调节的负荷比较多时,即可参与调节的负荷节点数大于第二阈值时,可以采用灵敏度分析法,对负荷节点电压灵敏度按照从大到小进行排序,选取排在前n个的负荷节点优先进行切除,n为正整数,n的值可以根据经验设定,参与调节的负荷节点切负荷动作设置在[0%,m%]之间,且可以进行连续性动作调节,m%为负荷节点能够切除的最大上限。
[0068]
深度强化学习算法流程设计
[0069]
基于ddpg的电网紧急状态自动切负荷算法仿真模拟流程设计如图2所示,根据该流程图完成电网紧急状态自动切负荷调整算法模型设计。电力系统在发生故障后,进入紧急状态后,可以根据电力系统潮流计算结果,判断此时电力系统的总负荷的有功功率p
load
是否大于总发电机组的有功功率p
gen
,如果大于,则进行切负荷动作,如果不大于则不需要进行切负荷动作,而仿真实验中则可以重新潮流初始化;根据切负荷动作后电力系统潮流计算结果,判断潮流计算结果是否满足约束条件,若所有约束条件均满足,则直接通过奖励函数计算最终奖励值,完成训练;若有任一约束条件不满足,则通过奖励函数和惩罚函数计算当前奖励值,重新进行切负荷动作,直至所有约束条件均满足,将本轮仿真训练每一步计算的当前奖励值相加得到最终奖励值,完成训练。
[0070]
构建深度强化学习约束奖励函数
[0071]
约束奖励函数的构建,需要考虑到紧急状态切负荷动作后,电网的运行恢复状态,如潮流是否收敛、电力系统功率平衡情况、节点电压是否越限、关键断面是否越限、以及发电机和平衡机的出力约束等情况。紧急状态切负荷动作执行后,如果电网的运行状态满足所有约束条件,则深度强化学习的智能体将获得相应奖励值,如果不满足任一约束条件,则
智能体将受到相应惩罚。
[0072]
奖励函数设计如下:
[0073][0074]
惩罚函数设计如下:
[0075][0076]
式中:l
step
为深度强化学习的迭代步数,v为电力系统节点电压值,p
loadi
和q
loadi
分别为电力系统内第i个负荷节点切除的有功功率和无功功率;p
geni
为电力系统内第i个发电机节点的有功功率;p
bal
为电力系统内平衡机的有功功率;p
loadi max
和q
loadi max
分别为第i个负荷节点可切除的有功功率和无功功率的最大上限;p
geni max
为电力系统内第i个发电机有功功率出力最大上限;p
bal max
为平衡机控制出力的上限;λ1为奖励权重系数,c1,c2,c3,c4,c5分别为结果满足约束条件时的奖励常数值,λ2,η,δ,γ分别为结果不满足约束条件时的惩罚权重系数,c6为潮流不收敛时的惩罚常数值,r
1-r6是对应约束条件下的奖励值或惩罚值;
[0077]
将上述奖励值或惩罚值加和,得到深度强化学习切负荷动作每一步计算的当前奖励值,如下式所示:
[0078][0079]
式中,rk为第k步的当前奖励值,rj为第k步深度强化学习训练时,结果满足或不满足约束条件时的奖励值和惩罚值;
[0080]
将每一步的当前奖励值加和,即得到本轮仿真训练的最终奖励值,如下式所示:
[0081][0082]
式中,rk为第k步的当前奖励值,r
sum
为本轮深度强化学习仿真训练时获得的最终奖励值,l
step
为深度强化学习的迭代步数。
[0083]
确定深度强化学习控制策略
[0084]
根据上述过程进行切负荷控制模型训练,选取奖励回报值较高的策略动作作为最终的紧急状态切负荷动作,从而实现电力系统紧急状态切负荷控制,控制节点电压在约束区间内,保证电力系统稳定运行。
[0085]
无功补偿合理性设计
[0086]
电力系统进行紧急切负荷动作后,电力系统应该保持功率平衡。有功功率的平衡调节,可以通过切除负荷的有功功率进行调整而达到平衡;无功功率的调节,由于在切除负荷时,同时切除了和有功功率相同比例的无功功率,如果在该动作控制策略后,还要继续优化节点电压,可以通过调整发电机的机端电压,即发电机节点注入无功和投切电容电抗器实现。
[0087]
本发明还提供一种基于深度强化学习的电力系统紧急切负荷控制系统,包括故障情况下电力系统状态空间获取模块以及切负荷动作输出模块,其中;
[0088]
故障情况下电力系统状态空间获取模块:用于获取故障情况下电力系统状态空间;
[0089]
切负荷动作输出模块:用于将所述故障情况下电力系统状态空间输入切负荷控制模型中,得到切负荷动作,其中,所述切负荷控制模型通过对深度强化学习网络进行仿真训练得到。
[0090]
下面以一个具体的实例对本发明进行说明:
[0091]
本发明针对电网紧急状态切负荷控制问题,提出一种基于深度强化学习的电网紧急状态切负荷控制方法,如附图1所示。具体包括:
[0092]
1.选取电力系统可观测的运行状态变量如母线负荷有功功率、母线负荷无功功率、母线节点电压、发电机有功功率、发电机无功功率、发电机转速、发电机功角等参量作为深度强化学习状态空间的组成部分。
[0093]
2.如图3所示以ieee39节点系统为例,考虑到对于电网紧急状态切负荷而言,并不是所有负荷都能进行随意切除,只有部分可以调节的负荷才能参与切负荷动作,这里设定可调节负荷节点为节点3、4、7、8、16、20、24,并且全部参与调节,切负荷动作范围可以设置为原负荷的[0%-40%]区间内。如果电网网架结构比较大,并且可参与调节的负荷节点比较多时,可以先通过采用灵敏度分析法,对负荷节点电压灵敏度按照从大到小进行排序,选取节点电压灵敏度较高的负荷节点优先进行切除。
[0094]
3.利用如图2所示的基于深度强化学习的电网紧急状态自动切负荷算法流程图,完成电网紧急状态自动切负荷控制模型训练。电力系统在发生故障后,进入紧急状态后,可以根据电力系统潮流计算结果,判断此时电力系统的总负荷的有功功率是否大于总发电机组的有功功率,如果大于,则进行切负荷动作,如果不大于则不需要进行切负荷动作,而仿真实验中则可以重新潮流初始化;判断潮流计算结果是否满足约束条件,若所有约束条件均满足,则直接通过奖励函数计算最终奖励值,完成训练;若有任一约束条件不满足,则通过奖励函数和惩罚函数计算当前奖励值,重新进行切负荷动作,直至所有约束条件均满足,将每一步计算的当前奖励值相加得到最终奖励值,完成训练。
[0095]
4.切负荷动作执行后,如果电网的运行状态满足所有约束条件,则深度强化学习的智能体将获得相应奖励值,如果不满足任一约束条件,则智能体将受到相应惩罚。
[0096]
奖励函数设计如下:
[0097][0098]
所述惩罚函数设计如下:
[0099][0100]
式中:l
step
为深度强化学习的迭代步数,v为电力系统节点电压值,p
loadi
和q
loadi
分别为电力系统内第i个负荷节点切除的有功功率和无功功率;p
geni
为电力系统内第i个发电机节点的有功功率;p
bal
为电力系统内平衡机的有功功率;p
loadi max
和q
loadi max
分别为第i个负荷节点可切除的有功功率和无功功率的最大上限;p
geni max
为电力系统内第i个发电机有功功率出力最大上限;p
bal max
为平衡机控制出力的上限;λ1为奖励权重系数,c1,c2,c3,c4,c5分别为结果满足约束条件时的奖励常数值,λ2,η,δ,γ分别为结果不满足约束条件时的惩罚权重系数,c6为潮流不收敛时的惩罚常数值,r
1-r6是对应约束条件下的奖励值或惩罚值;
[0101]
将上述奖励值或惩罚值加和,得到深度强化学习切负荷动作每一步计算的当前奖励值,如下式所示:
[0102][0103]
式中,rk为第k步的当前奖励值,rj为第k步深度强化学习训练时,结果满足或不满足约束条件时的奖励值和惩罚值;
[0104]
将每一步的当前奖励值加和,即得到本轮仿真训练的最终奖励值,如下式所示:
[0105][0106]
式中,rk为第k步的当前奖励值,r
sum
为本轮深度强化学习仿真训练时获得的最终奖励值,l
step
为深度强化学习的迭代步数。
[0107]
5.在电力系统正常运行工况下,将所有负荷节点进行[90%-110%]区间范围内的随机波动,并且随机切除发电机35、38号机组,仿真模拟系统故障,使得电力系统进入紧急状态,然后通过仿真模拟可以判定电力系统运行情况的节点电压情况,如表1所示,此时部分负荷节点电压将跌落到[0.95-1.05]标幺值外,如果此种情况持续发生,电力系统将会面临危险状态。
[0108]
表1故障发生后负荷节点电压标幺值
[0109] 节点3节点4节点7节点8节点16节点20节点2435号故障0.990.930.920.920.980.980.9938号故障0.950.880.860.860.970.970.98
[0110]
6.此时运用本发明基于深度强化学习生成的电力系统紧急状态切负荷控制模型,分别切除原负荷的百分比如表2所示:
[0111]
表2故障发生后负荷节点动作
[0112] 节点3节点4节点7节点8节点16节点20节点2435号故障40%40%40%21.9%0%40%40%38号故障0%40%40%40%0%40%40%
[0113]
7.电力系统进行紧急切负荷动作后,电力系统应该保持功率平衡。有功功率的平衡调节,可以通过切除负荷的有功功率进行调整而达到平衡;无功功率的调节,由于在切除负荷时,同时切除了和有功功率相同比例的无功功率,如果在该动作控制策略后,还要继续优化节点电压,可以通过调整发电机的机端电压,即发电机节点注入无功和投切电容电抗器实现。
[0114]
8.最终,使得整个电力系统的各节点电压恢复到了[0.95-1.05]标幺值之间,保证了电力系统的稳定运行,节点电压如图4所示。
[0115]
本发明提出的基于人工智能的切负荷控制方法,解决了电力系统紧急状态下切负荷策略自动控制问题,基于数据驱动的方法,通过基于深度强化学习的方法,利用电力系统的运行数据作为算法交互的环境信息,最终实现电力系统紧急状态下的电压稳定,从而更好的辅助运行人员提高紧急状态切负荷控制动作策略的准确性,提升电力系统的安全稳定运行水平。
[0116]
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0117]
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0118]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0119]
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一
个方框或多个方框中指定的功能的步骤。
[0120]
最后应当说明的是:以上实施例仅用于说明本发明的技术方案而非对其保护范围的限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:本领域技术人员阅读本发明后依然可对发明的具体实施方式进行种种变更、修改或者等同替换,但这些变更、修改或者等同替换,均在发明待批的权利要求保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1