一种非完备模型下的配电网分布式无功优化方法及系统

文档序号:29208780发布日期:2022-03-12 03:23阅读:77来源:国知局
一种非完备模型下的配电网分布式无功优化方法及系统

1.本发明属于微电网无功优化技术领域,特别涉及一种非完备模型下的配电网分布式无功优化方法及系统。


背景技术:

2.无功优化可以维持电力系统电压稳定或使电压保持在安全的范围内。在无功优化中,通常选择电网中负荷母线的实际网损和稳态电压偏差作为优化目标,负荷母线电压、供需平衡、无功发电的无功功率和发电机界等作为约束条件。无功功率控制(efficient reactive power control,erpc)优化算法多种多样,如线性规划、内点法、梯度法和智能算法等。以上算法都是大多是集中式的。集中式控制器收集全局运行状况,需要中央控制器处理大量数据。这造成了数据处理的延迟,不适合在线优化。
3.随着电网复杂度的不断提高,无功功率的控制变得非常困难,需要更多的自动化控制装置来缩短响应时间。针对这一问题,分布式控制技术得以应用,其通过减轻计算量来提高运算速度。为了弥补研究之间的差距,基于多智能体系统的方法被用来满足日益增长的复杂性和解决基于eprc的问题。现有的方法大多是通过对问题进行分解来控制eprc,并以分布式的方式来解决eprc问题。为了适应电力系统日益增长的复杂性,研究者们开发了许多模拟自然现象的算法,它们具有很强的适应性和最优性以适合于在线应用。由于这种复杂性使得基于模型的设计很难建立,为了更好地进行复杂性分析,需要考虑不依赖于模型的算法。因此,机器学习算法被用于暂态电压稳定、无功问题,并用于解决上述问题。
4.强化学习(reinforcement learning,rl)是一种引人注目的机器学习模型,它处理不同智能体在不确定的协作环境中如何进行顺序操作,并从反馈优化器中学习并优化性能,帮助克服日益增长的复杂性和不确定性的挑战。在反馈过程中,解决方案根据奖励信号自我更新,并估计和推进解决方案的实施。然而,对于基于rl的分布式问题,如何在不同的智能体之间生成和分配奖励信号,并从他们的行为中学习是一个挑战。在马尔可夫决策过程(markov decision process,mdps)中,每个智能体的目标是映射每个状态和行为,以使得总折扣报酬最大化。
5.现阶段,针对配电网的分布式无功优化方法问题存在以下不足:
6.(1)现有技术都需要专门的智能体与其他智能体进行协调,这些方法存在单点失效的问题,应用起来不够灵活。因此,分散地建立和分配不同的智能体来控制无功较为繁琐。
7.(2)现有技术基于多智能体强化学习的文献对于随机环境的收敛性和不同智能体之间的协作关系仍存在不足。


技术实现要素:

8.针对上述问题,本发明提供一种非完备模型下的配电网分布式无功优化方法及系统,具有兼容性广、适应性强的特点。
9.本发明提供一种非完备模型下的配电网分布式无功优化方法,包括以下步骤:根据配电网潮流约束、含变压器支路约束建立配电网无功功率控制模型;将配电网无功功率控制模型的控制变量分配给多个智能体;基于q-learning方法的分布式rl算法,对多个智能体进行训练,获得每个智能体的分布式/局部奖励信号;基于平均共识算法对每个智能体的分布式/局部奖励信号进行共享;每个训练好的智能体根据分布式/局部奖励信号生成q值表;根据各智能体q值表生成控制信号,实现配电网分布式无功功率的控制。
10.进一步的,配电网潮流约束具体如下:
[0011][0012][0013][0014][0015][0016][0017][0018][0019][0020][0021]
式中,vi,vj代表节点i,j的电压幅值,(v
imin
,v
imax
),(v
imin
,v
imax
)分别为节点i,j的电压幅值约束,p
lj
,q
lj
代表母线j处的负荷有功功率、无功功率,p
gj
,q
gj
代表母线j处的发电机有功功率、无功功率,q
cj
为电容器的无功功率补偿,p
ij
,q
ij
和i
ij
分别代表支路ij的有功功率、无功功率和电流幅值,r
ij
,x
ij
代表支路ij的电阻和电抗,αj,αi分别为母线j和母线i处的节点电压相角幅值,β
ji
为支路ij中支路电导g
ij
超前支路电纳b
ij
的角度(弧度),y
ji
为导纳矩阵中相应元素的模值,e代表系统支路的集合,vs代表变压器松弛母线处的节点电压幅值,k代表电容器的数目,tap代表有载分接头的状态,tap

代表有在分接头的最大接头位置,dk为二进制变量,
△vt
代表单抽头步进的电压调节。
[0022]
进一步的,含变压器支路约束具体为:
[0023][0024]
式中,非标称绕组变压器变比为t:1,h为标称绕组下的变比(阻抗为标幺值),y
sc
为短路试验时主绕组侧的短路导纳,y
ji
为含变压器支路ji的等效电导值。
[0025]
进一步的,基于q-learning方法的分布式rl算法,对多个智能体进行训练,获得每个智能体的分布式/局部奖励信号,包括以下步骤:
[0026]
将配电网无功功率控制模型作为多个智能体交互的环境;
[0027]
每个智能体从环境中获取本地量测信息,基于q-learning方法的分布式rl算法,对多个智能体进行训练,获得每个智能体的分布式/局部奖励信号。
[0028]
进一步的,每个智能体的分布式/局部奖励信号根据每个智能体量测的有功功率损耗确定。
[0029]
进一步的,基于平均共识算法对每个智能体的分布式/局部奖励信号进行共享,包括以下步骤:
[0030]
对每个智能体间的平均共识方法信息级数进行定义;
[0031]
基于一致性理论,将不同智能体之间的分布式/局部奖励信号交换设置为离散线性系统;
[0032]
根据离散线性系统获得每个节点智能体的全局奖励信号,从而获得配电网的全局奖励信号。
[0033]
进一步的,每个训练好的智能体根据分布式/局部奖励信号生成q值表包括以下步骤:
[0034]
每个训练好的智能体根据分布式/局部奖励信号生成状态和动作对;
[0035]
每个智能体根据状态和动作对更新q值,生成q值表。
[0036]
进一步的,根据各智能体q值表生成控制信信号,实现配电网分布式无功功率的控制包括以下步骤:
[0037]
每个智能体根据q值表,选择其最优动作;
[0038]
每个智能体单独更新q值表;
[0039]
每个智能体将最高q值对应的动作选择最优动作;
[0040]
每个智能体之间共享各自的q值表,并基于ε-greedy的最优解更新q值表;
[0041]
rl智能体基于更新q值表生成控制信号,通过控制信号使配电网有功功率损耗最小,从而实现配电网分布式无功功率的控制。
[0042]
进一步的,通过控制信号使配电网有功功率损耗最小,从而实现配电网分布式无功功率的控制包括以下步骤:
[0043]
通过控制信号,生成全局奖励信号;
[0044]
基于全局奖励信号,每个智能体得到的分布式/局部奖励信号;
[0045]
每个智能体根据分布式/局部奖励信号控制电容器组、多个变压器分接切换和多个连接的发电机动作,使配电网有功功率损耗最小。
[0046]
进一步的,控制变量包括变压器分接头的改变、电容器组的投切和调节发电机母线电压。
[0047]
进一步的,多个智能体包括rl智能体和节点智能体。
[0048]
本发明还提供一种非完备模型下的配电网分布式无功优化系统,包括:
[0049]
模型建立模块,用于根据配电网潮流约束、含变压器支路约束建立配电网无功功率控制模型;
[0050]
数据分解模块,用于将配电网无功功率控制模型的控制变量分配给多个智能体;
[0051]
模型训练模块,用于基于q-learning方法的分布式rl算法,对多个智能体进行训练,获得每个智能体的分布式/局部奖励信号;
[0052]
数据共享模块,用于基于平均共识算法对每个智能体的分布式/局部奖励信号进行共享;
[0053]
q值表生成模块,用于每个训练好的智能体根据分布式/局部奖励信号生成q值表;
[0054]
信号生成模块,用于根据各智能体q值表生成控制信号,实现配电网分布式无功功率的控制。
[0055]
进一步的,模型训练模块具体用于:
[0056]
将配电网无功功率控制模型作为多个智能体交互的环境;
[0057]
每个智能体从环境中获取本地量测信息,基于q-learning方法的分布式rl算法,对多个智能体进行训练,获得每个智能体的分布式/局部奖励信号。
[0058]
进一步的,q值表生成模块具体用于:
[0059]
每个训练好的智能体根据分布式/局部奖励信号生成状态和动作对;
[0060]
每个智能体根据状态和动作对更新q值,生成q值表。
[0061]
进一步的,控制变量包括变压器分接头的改变、电容器组的投切和调节发电机母线电压。
[0062]
本发明的有益效果:
[0063]
1、利用基于分布式多智能体强化学习的优化技术,在考虑电网不精确的情况下,对电力系统进行有效的无功控制。
[0064]
2、本发明提出了一种非完备模型下的配电网分布式无功优化方法,克服了集中式算法的缺点,将平均共识算法和采用q-learning方法的分布式rl算法相结合;提出的算法给出了在不同运行条件下的鲁棒解。
[0065]
3、本发明使用的rl的优点是易于设计和适应学习过程中的变化。基于q-learning的分布式rl方法比其他方法具有低内存等有点,还可以通过考虑无模型环境从头开始学习。
[0066]
4、本发明的方法实现了智能体之间的信息共享,应用灵活。无需分散地建立和分配不同的智能体来控制无功,控制方法简单。另外,对于随机环境本发明实施例使用rl智能体易于适应环境的变化。
[0067]
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在说明书、权利要求书以及附图中所指出的结构来实现和获得。
附图说明
[0068]
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发
明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0069]
图1示出了根据本发明实施例的一种非完备模型下的配电网分布式无功优化方法的流程示意图;
[0070]
图2示出了根据本发明实施例的非标称绕组变压器变比t:1示意图;
[0071]
图3示出了根据本发明实施例的基于erpc系统网络的流程示意图;
[0072]
图4示出了根据本发明实施例的一种非完备模型下的配电网分布式无功优化系统的结构示意图。
具体实施方式
[0073]
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地说明,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0074]
本发明实施例利用基于分布式多智能体强化学习的优化技术,在考虑电网不精确的情况下,对电力系统进行有效的无功控制。提出了一种非完备模型下的配电网分布式无功优化方法,需要说明的是,非完备模型指的是指在配电网中,参数是不完全掌握的,例如线路阻抗等参数。
[0075]
请参阅图1,图1示出了根据本发明实施例的一种非完备模型下的配电网分布式无功优化方法的流程示意图。
[0076]
一种非完备模型下的配电网分布式无功优化方法,包括以下步骤:根据配电网潮流约束、含变压器支路约束建立配电网无功功率控制模型;将配电网无功功率控制模型的控制变量分配给多个智能体;基于q-learning方法的分布式rl算法,对多个智能体进行训练,获得每个智能体的分布式/局部奖励信号;基于平均共识算法对每个智能体的分布式/局部奖励信号进行共享;每个训练好的智能体根据分布式/局部奖励信号生成q值表;根据各智能体q值表生成控制信号,实现配电网分布式无功功率的控制。
[0077]
本发明实施例克服了集中式算法的缺点,将平均共识算法和采用q-learning方法的分布式rl算法相结合;提出的算法给出了在不同运行条件下的鲁棒解。
[0078]
本发明实施例使用的rl的优点是易于设计和适应学习过程中的变化。因此,基于q-learning的分布式rl方法比其他方法具有优势,例如低内存等,它可以通过考虑无模型环境从头开始学习。
[0079]
具体的,配电网潮流约束表示为:
[0080][0081][0082]
[0083][0084][0085][0086][0087][0088][0089]vimin
≤vi≤v
imax
ꢀꢀ
(10)
[0090]
式中,vi,vj代表节点i,j的电压幅值,(v
imin
,v
imax
),(v
imin
,v
imax
)分别为节点i,j的电压幅值约束,p
lj
,q
lj
代表母线j处的负荷有功功率、无功功率,p
gj
,q
gj
代表母线j处的发电机有功功率、无功功率,q
cj
为电容器的无功功率补偿,p
ij
,q
ij
和i
ij
分别代表支路ij的有功功率、无功功率和电流幅值,r
ij
,x
ij
代表支路ij的电阻和电抗,αj,αi分别为母线j和母线i处的节点电压相角幅值,β
ji
为支路ij中支路电导g
ij
超前支路电纳b
ij
的角度(弧度),y
ji
为导纳矩阵中相应元素的模值,e代表系统支路的集合,vs代表变压器松弛母线处的节点电压幅值,k代表电容器的数目,tap代表有载分接头的状态,tap

代表有在分接头的最大接头位置,dk为二进制变量,
△vt
代表单抽头步进的电压调节。
[0091]
请参阅图2,图2示出了根据本发明实施例的非标称绕组变压器变比t:1示意图。
[0092]
非标称绕组变压器对应变压器分接头约束,将h视为标称绕组下的变比(阻抗为标幺值),y
sc
则为短路试验时主绕组侧的短路导纳。基于此,可获得π型等值电路的参数,从而建立含变压器支路约束。
[0093]
具体的,含变压器支路约束表示为:
[0094][0095]
式中,非标称绕组变压器变比为t:1,h为标称绕组下的变比(阻抗为标幺值),y
sc
为短路试验时主绕组侧的短路导纳,y
ji
为含变压器支路ji的等效电导值。
[0096]
对于配电网无功功率控制模型,其控制变量包括变压器分接头的改变、电容器组的投切和调节发电机母线电压。其中,变压器分接头的改变将导致母线矩阵的变化,进而改变配电网潮流。
[0097]
本发明实施例的多个智能体包括rl智能体和节点智能体。
[0098]
智能体的数量是根据电容器组、变压器分接切换和连接的发电机的数量设置。
[0099]
具体实施时,由9个节点智能体和5个不同的rl智能体组成智能体网络,并将基于q-learning的算法分配给每个智能体,多个智能体分别用于变压器分接头的改变、电容器的投切和调节发电机母线电压。
[0100]
本发明实施例将控制变量分配给rl智能体,由rl智能体进行控制和决策。
[0101]
本发明实施例是一个无模型的控制方法,该方法基于rl智能体在训练过程中产生的最大q值,并据此采取相应的控制措施。
[0102]
具体的,基于q-learning方法的分布式rl算法,对多个智能体进行训练,获得每个智能体的分布式/局部奖励信号,包括以下步骤:
[0103]
s11、将配电网无功功率控制模型作为多个智能体交互的环境。
[0104]
s12、每个智能体从环境中获取本地量测信息,基于q-learning方法的分布式rl算法,对多个智能体进行训练,获得每个智能体的分布式/局部奖励信号。
[0105]
具体实施时,基于rl的环境中,各智能体从环境中获取观察结果,并根据为获得的期望性能而采取的行动产生奖励。
[0106]
具体的,根据每个智能体的分布式/局部奖励信号获得全局奖励信号,表示为:
[0107][0108]
式中,m代表智能体的总数,r
l.j
代表从每个智能体j处得到的分布式/局部奖励信号,rz代表全局奖励信号。
[0109]
由于erpc的目标是通过在限制范围内调整不同的约束条件来保持最小化实际的功率损失。
[0110]
具体的,每个智能体的分布式/局部奖励信号根据每个智能体量测的有功功率损耗确定,表示为:
[0111]rl,j
=1/(d+p
loss,j
)
ꢀꢀ
(13)
[0112]
式中,p
loss,j
代表从每个智能体j处得到的有功功率损耗,d为灵敏度系数。
[0113]
具体实施时,如果约束条件被违反,则奖励函数置为零,各个智能体将在某个范围内检查边界,并用d来降低其灵敏度。
[0114]
需要说明的是,由于总的有功功率损耗无法直接计算,所以通过每个智能体的有功功率损耗的总和获得,并使用全局奖励信号来评估进行问题的实施。
[0115]
具体的,配电网总的有功功率表示为:
[0116][0117]
其中,p
loss
代表总的有功功率损耗,p
ij
代表在母线i处量测的由母线i至母线j的有功功率,p
ji
代表在母线j处量测的由母线j至母线i的有功功率。在p
ij
+p
ij
=p
loss,j
中,i,j∈nj,nj代表了与母线j相连的母线集合。
[0118]
本实施例考虑到电力系统的复杂性,采用基于局部通信的算法是可行的,而采用基于全局搜索信息的算法则较为困难。因此,本发明中涉及到的基于平均共识的方法将对每个智能体共享的信息进行研究,以保证它们之间共享的信息是有效的。
[0119]
需要说明的是,每个智能体的分布式/局部奖励信号包括基于配电网实时响应的
电容器布置信息和变压器分接头变化信息。
[0120]
具体的,基于平均共识算法对每个智能体的分布式/局部奖励信号进行共享,包括以下步骤:
[0121]
s21、对每个智能体间的平均共识方法信息级数进行定义,具体为:
[0122][0123]
其中,χ
i,m(n)
代表在第n次迭代时第i个智能体和第m个智能体间的平均共识方法信息级数,χ
j(n+1)
代表第j个智能体在第n+1次迭代时的平均共识方法信息级数,m代表不同的智能体的参与数量,n+1代表每次迭代的更新。g
ij
代表不同智能体间的信息共享系数。
[0124]
需要说明的是,不同智能体间的信息共享系数g
ij
在收敛过程中起着重要作用。
[0125]
s22、基于一致性理论,将不同智能体之间的分布式/局部奖励信号交换设置为离散线性系统,具体为:
[0126]nn+1
=gnnꢀꢀ
(16)
[0127]
其中,n
n+1
和nn分别代表第n+1次和第n次迭代的已发现的向量,g是多智能体图的laplacian矩阵,表示为g=[g
ij
],其具体元素表示为:
[0128][0129]
式中,gi代表智能体i的邻居集合,gi代表智能体i的邻居数目。
[0130]
s23、根据离散线性系统获得每个节点智能体的全局奖励信号,从而获得配电网的全局奖励信号。
[0131]
示例的,如果网络有m=108个节点,那么每个节点都可以与log
10
(m)=8数量的邻居进行通信。
[0132]
具体的,每个训练好的智能体根据分布式/局部奖励信号生成q值表包括以下步骤:
[0133]
s31、每个训练好的智能体根据分布式/局部奖励信号生成状态和动作对。
[0134]
具体的,状态和动作对表示为:
[0135][0136]
其中,q
*
(s,a)、q
*
(s',a)分别代表动作a下状态s和s'的q的最佳值,p(s'|s,a)代表通过动作a,由状态s过渡至状态s'的状态暂态概率,r(s,s',a)代表这种状态转换的直接奖励。相似地,γ是一个折扣因子,它的范围从0到1,它根据当前的q值来表示即将到来的状态的奖励的重要性。
[0137]
s32、每个智能体根据状态和动作对更新q值,生成q值表。
[0138]
具体的,根据状态和动作对更新q值,表示为:
[0139][0140]
其中,代表第i个智能体在第k+1次迭代时的q值,其余未带上角标的变量均代表第一次迭代时的数值,α是对新状态下所提取信息的精确度的度量,称为学习因子。a

表示了在从s到s

的状态转换过程中所采取的可行动作的状态。
[0141]
具体的,根据各智能体q值表生成控制信号,实现配电网分布式无功功率的控制包括以下步骤:
[0142]
s41、每个智能体根据q值表,选择其最优动作。
[0143]
s42、每个智能体单独更新q值表。
[0144]
s43、每个智能体将最高q值对应的动作选择最优动作。
[0145]
具体的,最高q值表示为:
[0146][0147]
其中,代表第i个智能体的动作状态的最大值,qi(s,a)代表第i个智能体在动作a和状态s下的最大q值。
[0148]
s44、每个智能体之间共享各自的q值表,并基于e-greedy的最优解上更新q值表。
[0149]
对于探索与开发之间的稳定过渡,基于q-learning的算法通过从随机选择的动作以及最高q值进行过渡来使用,表示为:
[0150][0151]
其中,ab,ar分别代表最佳动作值和随机动作值,分别代表最佳动作和随机动作的最大值,最佳的动作在0《ε《1间选择,并在此范围内设置一个较小的数字,t
*
代表探索和开发的最大时间。
[0152]
本发明实施例随着解决方案的进行,开发(较小的t
*
)取代了探索(较大的t
*
),直到达到最佳状态。采用ε-greedy方法,新知识在学习过程中通过探索获得。
[0153]
s45、rl智能体基于更新q值表生成控制信号,通过控制信号使配电网有功功率损耗最小,从而实现配电网分布式无功功率的控制。
[0154]
具体的,通过控制信号使配电网有功功率损耗最小,从而实现配电网分布式无功功率的控制包括以下步骤:
[0155]
s451、通过控制信号,生成全局奖励信号。
[0156]
s452、基于全局奖励信号,每个智能体得到的分布式/局部奖励信号。
[0157]
s453、每个智能体根据分布式/局部奖励信号控制电容器组、多个变压器分接切换和多个连接的发电机动作,使配电网有功功率损耗最小。
[0158]
请参阅图3,图3示出了根据本发明实施例的基于erpc系统网络的流程示意图。
[0159]
基于erpc系统的网络的流程图对具体实施过程进行解释说明,节点智能体根据本地量测信息r
l,j
、p
loss
,、p
ij
、χ
i.
,、χ
j,m
按照公式(15)进行奖励计算,获得节点智能体间的平均
共识方法信息级数,邻近智能体根据本地量测信息p
loss
,、p
ij
、χ
i.
,、χ
j,m
按照公式(15)进行奖励计算,获得邻近智能体间的平均共识方法信息级数。节点智能体与邻近智能体进行信息共享,根据量测信息r
l.j
按照公式(12)进行平均共识奖励计算,获得全局奖励信号,当自动控制(automatic control,ac)ac的全局奖励完成后,在不同的智能体之间共享以更新各自的q值表,直到解决方案收敛,此时表中没有进一步的更新产生,rl智能体根据更新的q值表生产控制信号以通过最小化有功功率损耗来控制无功功率。本发明实施例中一旦所有信息都可用,它将进一步更新下一个状态的值,这个过程一直持续到收敛状态建立。
[0160]
本发明实施例的配电网分布式无功优化方法是完全基于rl智能体的控制和决策过程。本发明实施例一个无模型的算法,该控制方法基于rl智能体在训练过程中产生的最大q值,并据此采取相应的控制措施。通过本实施例的方法实现了智能体之间的信息共享,应用灵活。无需分散地建立和分配不同的智能体来控制无功,控制方法简单。另外,对于随机环境本发明实施例使用rl智能体易于适应环境的变化。
[0161]
请参阅图4,图4示出了根据本发明实施例的一种非完备模型下的配电网分布式无功优化系统的结构示意图。
[0162]
本发明实施例还提供一种非完备模型下的配电网分布式无功优化系统,包括:
[0163]
模型建立模块,用于根据配电网潮流约束、含变压器支路约束建立配电网无功功率控制模型;
[0164]
数据分解模块,用于将配电网无功功率控制模型的控制变量分配给多个智能体;
[0165]
模型训练模块,用于基于q-learning方法的分布式rl算法,对多个智能体进行训练,获得每个智能体的分布式/局部奖励信号;
[0166]
数据共享模块,用于基于平均共识算法对每个智能体的分布式/局部奖励信号进行共享;
[0167]
q值表生成模块,用于每个训练好的智能体根据分布式/局部奖励信号生成q值表;
[0168]
信号生成模块,用于根据各智能体q值表生成控制信号,实现配电网分布式无功功率的控制。
[0169]
进一步的,模型训练模块具体用于:将配电网无功功率控制模型作为多个智能体交互的环境;每个智能体从环境中获取本地量测信息,基于q-learning方法的分布式rl算法,对多个智能体进行训练,获得每个智能体的分布式/局部奖励信号。
[0170]
进一步的,q值表生成模块具体用于:每个训练好的智能体根据分布式/局部奖励信号生成状态和动作对;每个智能体根据状态和动作对更新q值,生成q值表。
[0171]
尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1