一种NAT负载均衡的实现方法、系统、电子设备及存储介质与流程

文档序号:31049798发布日期:2022-08-06 06:36阅读:67来源:国知局
一种NAT负载均衡的实现方法、系统、电子设备及存储介质与流程
一种nat负载均衡的实现方法、系统、电子设备及存储介质
技术领域
1.本技术涉及网络通信技术领域,具体而言,涉及一种nat负载均衡的实现方法、系统、电子设备及计算机可读存储介质。


背景技术:

2.网络地址转换(network address translation,nat)是将一个互联网协议(internet protocol,ip)地址转换为另一个ip地址,一般用于未经注册的内部地址与合法的、已获注册的ip地址间进行转换。适用于解决ip地址紧张、不想让网络外部知道内部网络结构等场合中。随着外网用户访问量的上升,内网一台服务器已难以胜任全部响应,此时就必须采用负载均衡技术,将大量的访问合理地分配至多台服务器上。此时就可以通过nat负载均衡技术实现服务器的负载均衡。nat提供了一种解决网络拥堵问题、提高内网服务器响应速度、提高内网服务器及其他资源的利用率从而提高用户体验的技术。
3.当前nat负载均衡主要采用静态负载均衡算法(不考虑服务器的实时负载状态,仅利用一些统计数值或者设备参考指标以一定比例来分配服务器权重)。现有技术中,将nat设备对外的网络ip地址转换为整个负载均衡架构的内部服务器ip地址,以便让内部的实际服务器来处理请求数据,当外部网络中的计算机访问nat设备对外的网络ip地址时,nat设备根据nat负载均衡算法(例如加权轮询算法等)计算出转换后的内部服务器ip地址,并将其转发到对应ip地址的服务器上。
4.但是,现有技术中,服务器的性能指标是动态变化的,静态指标只是个参考指标,而非实时的真实性能(随着服务器的长时间运行,自身的负载状态会产生较大的差异),这样根据服务器的静态性能指标计算出的服务器并不是服务器集群中实时性能最优的服务器;并且,当服务器集群中出现其中一台服务器死机后,当前技术的nat负载均衡策略并不能实时感知到,可能导致根据算法把用户的流量选取到处于死机状态的那台服务器上,导致用户访问失败。


技术实现要素:

5.本技术实施例的目的在于提供一种nat负载均衡的实现方法、系统、电子设备及计算机可读存储介质,可以根据服务器的实时性能选取服务器集群中实时性能最优的服务器,能够实时监测服务器集群中出现问题的服务器,避免选取到出故障的服务器,提高了nat负载均衡的实时性及有效性。
6.第一方面,本技术实施例提供了一种基于nat负载均衡的实现方法,所述方法包括:
7.基于transformer长期预测模型获取服务器集群中各服务器的综合请求连接数;
8.基于所述transformer长期预测模型获取服务器集群中各服务器的下一时刻响应时长;
9.根据所述服务器集群中各服务器的历史平均响应时长获得所述各服务器的性能;
10.根据所述综合请求连接数、所述下一时刻响应时长和所述各服务器的性能获得所述各服务器的权重;
11.根据所述各服务器的权重选取所述服务器集群中的性能最优服务器;
12.将用户实时请求对应的ip地址转换为所述性能最优服务器的ip地址。
13.在上述实现过程中,基于transformer长期预测模型获取服务器集群中各服务器的综合请求连接数和下一时刻响应时长,可以反映服务器的实时性能,从而选取性能最优服务器,从而更好处理用户实时请求,能够实时监测服务器集群中出现问题的服务器,避免选取到出故障的服务器,提高了nat负载均衡的实时性及有效性。
14.进一步地,在所述基于transformer长期预测模型获取服务器集群中各服务器的综合请求连接数之前,还包括:
15.建立基于服务器连接数和服务器响应时长的所述transformer长期预测模型。
16.在上述实现过程中,基于transformer模型建立基于服务器连接数和服务器响应时长的transformer长期预测模型,可以更准确、更高效地预测服务器的综合请求连接数和下一时刻响应时长。
17.进一步地,所述基于transformer长期预测模型获取服务器集群中各服务器的综合请求连接数,包括:
18.获取所述服务器集群中各服务器的当前时刻请求连接数;
19.根据所述当前时刻请求连接数和所述transformer长期预测模型获得所述服务器集群中各服务器的下一时刻请求连接数;
20.根据所述当前时刻请求连接数和所述下一时刻请求连接数获得所述服务器集群中各服务器的综合请求连接数。
21.在上述实现过程中,通过transformer长期预测模型获得服务器集群中各服务器的下一时刻请求连接数,进而获得服务器的综合请求连接数,可以更准确地预测性能最优服务器。
22.进一步地,所述根据所述当前时刻请求连接数和所述下一时刻请求连接数获得所述服务器集群中各服务器的综合请求连接数,包括:
23.通过以下公式根据所述当前时刻请求连接数和所述下一时刻请求连接数获得所述服务器集群中各服务器的综合请求连接数:
24.s(si)=αc
t
(si)+βc
t+1
(si);
25.其中,s(si)为第i台服务器的综合请求连接数,α为所述第i台服务器的当前时刻请求连接数的权重,β为所述第i台服务器的下一时刻请求连接数的权重,c
t
(si)为所述第i台服务器的当前时刻请求连接数,c
t+1
(si)为所述第i台服务器的下一时刻请求连接数。
26.在上述实现过程中,通过当前时刻请求连接数和下一时刻请求连接数据的权重分配的方式计算服务器的综合请求连接数,可以更有效地获得综合请求连接数。
27.进一步地,所述基于所述transformer长期预测模型获取服务器集群中各服务器的下一时刻响应时长,包括:
28.获取所述服务器集群中各服务器的当前时刻响应时长;
29.根据所述当前时刻响应时长和所述transformer长期预测模型获得所述服务器集群中各服务器的下一时刻响应时长。
30.在上述实现过程中,通过transformer长期预测模型结合当前时刻响应时长获得下一时刻响应时长,可以更加准确预测下一时刻响应时长,以便后续更加有效地计算服务器的权重。
31.进一步地,所述根据所述服务器集群中各服务器的历史平均响应时长获得所述各服务器的性能,包括:
32.通过以下公式根据所述服务器集群中各服务器的历史平均响应时长获得所述各服务器的性能:
[0033][0034]
其中,p(si)为所述各服务器的性能,t
t
为所述各服务器的历史响应时长。
[0035]
在上述实现过程中,通过服务器的历史响应时长获得历史平均响应时长,可以更加准确地获得服务器的性能,可以更直接、更快速地反映服务器的性能。
[0036]
进一步地,所述根据所述综合请求连接数、所述下一时刻响应时长和所述各服务器的性能获得所述各服务器的权重,包括:
[0037]
通过以下公式根据所述综合请求连接数、所述下一时刻响应时长和所述各服务器的性能获得所述各服务器的权重:
[0038]
w(si)=p(si)/(t
t+1
(si)*s(si));
[0039]
其中,w(si)为第i台各服务器的权重,p(si)为所述第i台服务器的性能,t
t+1
(si)为所述第i台服务器的下一时刻响应时长,s(si)为所述第i台服务器的综合请求连接数。
[0040]
在上述实现过程中,根据综合请求连接数、下一时刻响应时长和各服务器的性能获得所述各服务器的权重,可以综合性地获取服务器的权重,更加准确、有效。
[0041]
地服务器权重与综合请求连接数成反比,请求连接数越高,权重越低;服务器权重与服务器下一刻响应时长成反比,响应时长越长,权重越低
[0042]
第二方面,本技术实施例还提供一种nat负载均衡的实现系统,所述系统包括:
[0043]
参数获取模块,用于基于transformer长期预测模型获取服务器集群中各服务器的综合请求连接数;还用于基于所述transformer长期预测模型获取服务器集群中各服务器的下一时刻响应时长;
[0044]
性能获取模块,用于根据所述服务器集群中各服务器的历史平均响应时长获得所述各服务器的性能;
[0045]
权重获取模块,用于根据所述综合请求连接数、所述下一时刻响应时长和所述各服务器的性能获得所述各服务器的权重;
[0046]
选取模块,用于根据所述各服务器的权重选取所述服务器集群中的性能最优服务器;
[0047]
nat转换模块,用于将用户实时请求对应的ip地址转换为所述性能最优服务器的ip地址。
[0048]
在上述实现过程中,基于transformer长期预测模型获取服务器集群中各服务器的综合请求连接数和下一时刻响应时长,可以反映服务器的实时性能,从而选取性能最优服务器,从而更好处理用户实时请求,能够实时监测服务器集群中出现问题的服务器,避免选取到出故障的服务器,提高了nat负载均衡的实时性及有效性。
[0049]
第三方面,本技术实施例还提供了一种电子设备,包括存储器及处理器,所述存储
器用于存储计算机程序,所述处理器运行所述计算机程序以使所电子设备执行第一方面所述的nat负载均衡的实现方法。
[0050]
第四方面,本技术实施例还提供了一种计算机可读存储介质,其存储有计算机程序,所述计算机程序被处理器执行时实现第一方面所述的基于nat负载均衡的实现方法。
[0051]
第五方面,本技术实施例提供的一种计算机程序产品,所述计算机程序产品在计算机上运行时,使得计算机执行如第一方面任一项所述的方法。
附图说明
[0052]
为了更清楚地说明本技术实施例的技术方案,下面将对本技术实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本技术的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
[0053]
图1为本技术实施例提供的nat负载均衡的实现方法的流程示意图;
[0054]
图2为本技术实施例提供的nat负载均衡的实现系统的结构组成示意图;
[0055]
图3为本技术实施例提供的电子设备的结构组成示意图。
具体实施方式
[0056]
下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行描述。
[0057]
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本技术的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
[0058]
实施例一
[0059]
参见图1,本技术实施例提供一种nat负载均衡的实现方法,该方法包括:
[0060]
s1,基于transformer长期预测模型获取服务器集群中各服务器的综合请求连接数;
[0061]
s2,基于transformer长期预测模型获取服务器集群中各服务器的下一时刻响应时长;
[0062]
s3,根据服务器集群中各服务器的历史平均响应时长获得各服务器的性能;
[0063]
s4,根据综合请求连接数、下一时刻响应时长和各服务器的性能获得各服务器的权重;
[0064]
s5,根据各服务器的权重选取服务器集群中的性能最优服务器;
[0065]
s6,将用户实时请求对应的ip地址转换为性能最优服务器的ip地址。
[0066]
在上述实现过程中,基于transformer长期预测模型获取服务器集群中各服务器的综合请求连接数和下一时刻响应时长,可以反映服务器的实时性能,从而选取性能最优服务器,从而更好处理用户实时请求,能够实时监测服务器集群中出现问题的服务器,避免选取到出故障的服务器,提高了nat负载均衡的实时性及有效性。
[0067]
在一种可能的实施中,s1、s2的执行不分先后,可同时进行。
[0068]
在一种可能的实施中,在s1之前,还包括:
[0069]
建立基于服务器连接数和服务器响应时长的transformer长期预测模型。
[0070]
在上述实现过程中,基于transformer模型建立基于服务器连接数和服务器响应时长的transformer长期预测模型,可以更准确、更高效地预测服务器的综合请求连接数和下一时刻响应时长。transformer是为了解决循环神经网络(recurrent neural network,rnn)存在的缺陷(rnn计算对时序有着严重的依赖,导致它难以进行并行计算,只能串行计算)而设计出来的新模型。
[0071]
在一种可能的实施中,s1进一步包括:
[0072]
获取服务器集群中各服务器的当前时刻请求连接数;
[0073]
根据当前时刻请求连接数和transformer长期预测模型获得服务器集群中各服务器的下一时刻请求连接数;
[0074]
根据当前时刻请求连接数和下一时刻请求连接数获得服务器集群中各服务器的综合请求连接数。
[0075]
具体地,将当前时刻请求连接数c输入transformer长期预测模型,从而输出下一时刻请求连接数c
t+1
,具体示例可参见表1。
[0076][0077]
表1各服务器下一时刻请求连接数示意表
[0078]
在上述实现过程中,通过transformer长期预测模型获得服务器集群中各服务器的下一时刻请求连接数,进而获得服务器的综合请求连接数,可以更准确地预测性能最优服务器。
[0079]
在一种可能的实施中,由于服务器的权重计算不仅与下一时刻请求连接数c
t+1
有关,也与当前时刻请求连接数c
t
相关,在本技术实施例中,结合综合请求连接数s(si)来计算服务器的权重。具体地,通过以下公式根据当前时刻请求连接数和下一时刻请求连接数获得服务器集群中各服务器的综合请求连接数:
[0080]
s(si)=αc
t
(si)+βc
t+1
(si);
[0081]
其中,s(si)为第i台服务器的综合请求连接数,α为第i台服务器的当前时刻请求连接数的权重,β为第i台服务器的下一时刻请求连接数的权重,c
t
(si)为第i台服务器的当前时刻请求连接数,c
t+1
(si)为第i台服务器的下一时刻请求连接数。
[0082]
具体示例可参见表2。
[0083][0084]
表2各服务器综合请求连接数示意表
[0085]
在上述实现过程中,通过当前时刻请求连接数和下一时刻请求连接数据的权重分配的方式计算服务器的综合请求连接数,可以更有效地获得综合请求连接数。
[0086]
在一种可能的实施中,s2进一步包括:
[0087]
获取服务器集群中各服务器的当前时刻响应时长;
[0088]
根据当前时刻响应时长和transformer长期预测模型获得服务器集群中各服务器的下一时刻响应时长。
[0089]
在本实施例中,将当前时刻响应时长t
t
(也可以是历史响应时长的其中一种)输入transformer长期预测模型,输出服务器的下一时刻响应时长t
t+1
。具体实施中,当服务器连续三次的当前时刻响应时长超过阀值v
pt
后,则表示服务器异常,当前时刻服务器的权重值就直接置为0,直到连续三次当前时刻响应时长小于阀值v
pt
后重新进行后续服务器的权重计算。
[0090]
在上述实现过程中,通过transformer长期预测模型结合当前时刻响应时长获得下一时刻响应时长,可以更加准确预测下一时刻响应时长,以便后续更加有效地计算服务器的权重。
[0091]
具体示例可参见表3。
[0092][0093]
表3各服务器下一时刻响应时长示意表
[0094]
在一种可能的实施中,s3进一步包括:
[0095]
通过以下公式根据服务器集群中各服务器的历史平均响应时长获得各服务器的性能:
[0096][0097]
其中,p(si)为各服务器的性能,t
t
为各服务器的历史响应时长。
[0098]
具体实施中,当当前时刻响应时长超过阀值v
pt
时,重新累积历史响用时长来计算历史平均响应时长。
[0099]
具体示例可参见表4。
[0100][0101]
表4各服务器的性能示意表
[0102]
在上述实现过程中,通过服务器的历史响应时长获得历史平均响应时长,可以更加准确地获得服务器的性能,可以更直接、更快速地反映服务器的性能。
[0103]
在一种可能的实施中,s4进一步包括:
[0104]
通过以下公式根据综合请求连接数、下一时刻响应时长和各服务器的性能获得各服务器的权重:
[0105]
w(si)=p(si)/(t
t+1
(si)*s(si));
[0106]
其中,w(si)为第i台各服务器的权重,p(si)为第i台服务器的性能,t
t+1
(si)为第i台服务器的下一时刻响应时长,s(si)为第i台服务器的综合请求连接数。
[0107]
具体实施中,服务器的权重与综合请求连接数成反比,综合请求连接数越高,权重越低;服务器的权重与服务器的下一时刻响应时长成反比,响应时长越长,权重越低。
[0108]
在上述实现过程中,根据综合请求连接数、下一时刻响应时长和各服务器的性能获得各服务器的权重,可以综合性地获取服务器的权重,更加准确、有效。
[0109]
可选地,把计算得到的各服务器的权重w(si)逐个写入权重计算对象的数据库中。在一种可能的实施中,nat负载均衡策略引用权重计算对象v
s1
和转换后的服务器ip地址池s1。示例性地,s1包含三个ip地址:ip1、ip2、ip3。当用户实时请求的报文匹配到nat负载均衡策略后,把该策略引用的转换后的服务器ip地址池s1输入到引用的权重计算对象v
s1
中去获取s1中权重最优的服务器对应的ip地址。
[0110]
实施例二
[0111]
本技术实施例还提供一种nat负载均衡的实现系统,如图2所示,该系统包括:
[0112]
参数获取模块1,用于基于transformer长期预测模型获取服务器集群中各服务器的综合请求连接数;还用于基于transformer长期预测模型获取服务器集群中各服务器的下一时刻响应时长;
[0113]
性能获取模块2,用于根据服务器集群中各服务器的历史平均响应时长获得各服务器的性能;
[0114]
权重获取模块3,用于根据综合请求连接数、下一时刻响应时长和各服务器的性能获得各服务器的权重;
[0115]
选取模块4,用于根据各服务器的权重选述服务器集群中的性能最优服务器;
[0116]
nat转换模块5,用于将用户实时请求对应的ip地址转换为性能最优服务器的ip地址。
[0117]
在上述实现过程中,基于transformer长期预测模型获取服务器集群中各服务器的综合请求连接数和下一时刻响应时长,可以反映服务器的实时性能,从而选取性能最优服务器,从而更好处理用户实时请求,能够实时监测服务器集群中出现问题的服务器,避免选取到出故障的服务器,提高了nat负载均衡的实时性及有效性。
[0118]
在一种可能的实施中,系统还包括:
[0119]
建立模块,建立基于服务器连接数和服务器响应时长的transformer长期预测模型。
[0120]
在一种可能的实施中,参数获取模块1还用于获取服务器集群中各服务器的当前时刻请求连接数;根据当前时刻请求连接数和transformer长期预测模型获得服务器集群中各服务器的下一时刻请求连接数;根据当前时刻请求连接数和下一时刻请求连接数获得服务器集群中各服务器的综合请求连接数。
[0121]
在一种可能的实施中,参数获取模块1还用于通过以下公式根据当前时刻请求连接数和下一时刻请求连接数获得服务器集群中各服务器的综合请求连接数:
[0122]
s(si)=αc
t
(si)+βc
t+1
(si);
[0123]
其中,s(si)为第i台服务器的综合请求连接数,α为第i台服务器的当前时刻请求
连接数的权重,β为第i台服务器的下一时刻请求连接数的权重,c
t
(si)为第i台服务器的当前时刻请求连接数,c
t+1
(si)为第i台服务器的下一时刻请求连接数。
[0124]
在一种可能的实施中,参数获取模块1还用于获取服务器集群中各服务器的当前时刻响应时长;根据当前时刻响应时长和transformer长期预测模型获得服务器集群中各服务器的下一时刻响应时长。
[0125]
在一种可能的实施中,性能获取模块2还用于通过以下公式根据服务器集群中各服务器的历史平均响应时长获得各服务器的性能:
[0126][0127]
其中,p(si)为各服务器的性能,t
t
为各服务器的历史响应时长。
[0128]
在一种可能的实施中,权重获取模块3,通过以下公式根据综合请求连接数、下一时刻响应时长和各服务器的性能获得各服务器的权重:
[0129]
w(si)=p(si)/(t
t+1
(si)*s(si));
[0130]
其中,w(si)为第i台各服务器的权重,p(si)为第i台服务器的性能,t
t+1
(si)为第i台服务器的下一时刻响应时长,s(si)为第i台服务器的综合请求连接数。
[0131]
本技术系统实施例的其余内容可参照上述实施例一关于方法描述的内容,在本实施例中,不再进行赘述。
[0132]
实施例三
[0133]
本技术实施例提供一种电子设备,包括存储器及处理器,该存储器用于存储计算机程序,该处理器运行计算机程序以使电子设备执行实施例一的nat负载均衡的实现方法。
[0134]
请参见图3,图3为本技术实施例提供的电子设备的结构组成示意图。该电子设备可以包括处理器31、通信接口32、存储器33和至少一个通信总线34。其中,通信总线34用于实现这些组件直接的连接通信。其中,本技术实施例中设备的通信接口32用于与其他节点设备进行信令或数据的通信。处理器31可以是一种集成电路芯片,具有信号的处理能力。
[0135]
上述的处理器31可以是通用处理器,包括中央处理器(central processing unit,cpu)、网络处理器(network processor,np)等;还可以是数字信号处理器(dsp)、专用集成电路(asic)、现成可编程门阵列(fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本技术实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器31也可以是任何常规的处理器等。
[0136]
存储器33可以是,但不限于,随机存取存储器(random access memory,ram),只读存储器(read only memory,rom),可编程只读存储器(programmable read-only memory,prom),可擦除只读存储器(erasable programmable read-only memory,eprom),电可擦除只读存储器(electric erasable programmable read-only memory,eeprom)等。存储器33中存储有计算机可读取指令,当计算机可读取指令由所述处理器31执行时,设备可以执行上述图1方法实施例涉及的各个步骤。
[0137]
可选地,电子设备还可以包括存储控制器、输入输出单元。存储器33、存储控制器、处理器31、外设接口、输入输出单元各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通信总线34实现电性连接。处理器31用于执行存储器33中存储的可执行模块,例如设备包括的软件功能模块或计算机程序。
[0138]
输入输出单元用于提供给用户创建任务以及为该任务创建启动可选时段或预设
执行时间以实现用户与服务器的交互。输入输出单元可以是,但不限于,鼠标和键盘等。
[0139]
可以理解,图3所示的结构仅为示意,电子设备还可包括比图3中所示更多或者更少的组件,或者具有与图3所示不同的配置。图3中所示的各组件可以采用硬件、软件或其组合实现。
[0140]
另外,本技术实施例还提供一种计算机可读存储介质,其存储有计算机程序,该计算机程序被处理器执行时实现实施例一的nat负载均衡的实现方法。
[0141]
本技术实施例还提供一种计算机程序产品,该计算机程序产品在计算机上运行时,使得计算机执行方法实施例所述的nat负载均衡的实现方法。
[0142]
在本技术所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本技术的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
[0143]
另外,在本技术各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
[0144]
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本技术各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器、随机存取存储器、磁碟或者光盘等各种可以存储程序代码的介质。
[0145]
以上所述仅为本技术的实施例而已,并不用于限制本技术的保护范围,对于本领域的技术人员来说,本技术可以有各种更改和变化。凡在本技术的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本技术的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
[0146]
以上所述,仅为本技术的具体实施方式,但本技术的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本技术揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本技术的保护范围之内。因此,本技术的保护范围应所述以权利要求的保护范围为准。
[0147]
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要
素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1