分布式存储系统、方法和装置与流程

文档序号:15455047发布日期:2018-09-15 00:53阅读:139来源:国知局

本公开涉及数据存储技术领域,尤其是涉及一种分布式存储系统、方法和装置。



背景技术:

随着互联网技术的快速发展和广泛使用,每天都有海量数据源源不断产生,因此,作为数据存储载体的存储系统也越来越重要。传统存储系统常常具有扩展性差、安全性和可靠性较差等缺陷,导致它已经不能满足用户的存储需求。分布式存储系统以其良好的数据处理能力和可靠性,越来越受到用户的认可。

但是,由于分布式存储系统具有分布式硬件结构的特点,如果系统中一台或多台存储服务器发生了故障,常常会影响整个系统的数据服务性能,有时会使系统的所有服务中断,随着系统的规模越来越大,影响的服务范围也越来越大,致使分布式存储系统的服务性能较低。



技术实现要素:

有鉴于此,本公开的目的在于提供一种分布式存储系统、方法和装置,以提高分布式存储系统的服务性能。

为了实现上述目的,本公开采用的技术方案如下:

第一方面,本公开提供了一种分布式存储系统,该系统包括多个保护域;每个保护域包括多个故障域,每个故障域包括一组存储节点;同一数据的各个副本保存于同一个保护域内的不同故障域的存储节点上,以在出现故障存储节点时,在故障存储节点所属的保护域内进行维护,每个保护域中,故障域的最大允许故障数量小于副本的数量。

第二方面,本公开提供了一种分布式存储方法,该方法应用于分布式存储系统的监控节点,系统包括多个保护域;每个保护域包括多个故障域,每个故障域包括一组存储节点;方法包括:接收待存储的数据;生成数据的多个副本;将数据的多个副本分别存储至同一个保护域内的不同故障域的存储节点上。

第三方面,本公开提供了一种分布式存储装置,包括存储器和处理器,其中,存储器用于存储一条或多条计算机指令,一条或多条计算机指令被所述处理器执行,以实现上述分布式存储方法。

上述分布式存储系统、方法和装置,通过将系统划分成多个保护域,可以将同一数据的各个副本保存于同一个保护域内的不同故障域的存储节点上,在出现故障存储节点时,在故障存储节点所属的保护域内进行维护,该方式提高了系统可容忍的最大故障节点数量,降低了故障存储节点的影响范围和系统停止服务的几率,使分布式存储系统的服务性能更加稳定,提高了系统的安全性和可靠性。

本公开的其他特征和优点将在随后的说明书中阐述,或者,部分特征和优点可以从说明书推知或毫无疑义地确定,或者通过实施本公开的上述技术即可得知。

为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施方式,并配合所附附图,作详细说明如下。

附图说明

为了更清楚地说明本公开具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本公开的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本公开实施方式提供的一种分布式存储系统的结构示意图;

图2为本公开实施方式提供的另一种分布式存储系统的结构示意图;

图3为本公开实施方式提供的另一种分布式存储系统的结构示意图;

图4为本公开实施方式提供的另一种分布式存储系统的结构示意图;

图5为本公开实施方式提供的另一种分布式存储系统的结构示意图;

图6为本公开实施方式提供的另一种分布式存储系统的结构示意图;

图7为本公开实施方式提供的一种分布式存储方法的流程图;

图8为本公开实施方式提供的一种分布式存储装置的结构示意图。

具体实施方式

为使本公开实施方式的目的、技术方案和优点更加清楚,下面将结合附图对本公开的技术方案进行清楚、完整地描述,显然,所描述的实施方式是本公开一部分实施方式,而不是全部的实施方式。基于本公开中的实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施方式,都属于本公开保护的范围。

分布式存储系统是将数据分散存储在多台独立的设备上,利用多台存储服务器分担存储负荷;相对于直连附加存储、网络附加存储、存储区域网络这些传统的网络存储架构,分布式存储系统具有较好的可靠性、可用性和存取效率,还易于系统规模扩展。

对于企业级的应用平台,尤其是互联网服务供应商(例如,购物、检索、地图服务的网站或应用程序的供应商),随着业务规模的不断扩大,业务变得越来越复杂,并发用户请求越来越多,要处理的数据也越来越多;分布式存储系统可以随着企业的业务需求不断扩展,通过增加服务器数量来增强分布式系统整体的处理能力,以支持高并发和海量数据处理能力,满足企业业务增长带来的计算需求。

参见图1所示的一种分布式存储系统的结构示意图;管理服务器(也称为监控节点)将数据分散保存在与之连接的存储服务器(也称为存储节点)中,并记录各类数据的保存位置,同时监控各存储服务器的工作状态(例如,是否发生故障等);客户端与管理服务器通信连接。例如,用户通过客户端发送一个数据查询请求,管理服务器接收到该请求后,根据该请求查找对应数据的存储位置,例如,存储服务器的标识,存储服务器内存储硬盘的标识等,以从该存储位置读取数据,并返回至客户端。

在分布式存储系统中,如果其中一台或多台存储服务器发生了故障,则管理服务器无法向客户端提供该存储服务器中保存的数据服务,通常向客户端返回数据读取失败的信息;尤其是对于企业级用户,即使是很短时间的存储服务器故障,这种低可靠性的存储也会造成大量的业务服务失败,造成经济损失。

为了使存储系统具有一定的安全性和可靠性,通常会将存储系统划分为多个故障域,例如,如图1中,可以将一台存储服务器划分为一个故障域;再将待存储的数据生成多个副本,多个副本分别保存在不同的故障域内,当其中一个故障域内的存储服务器发生故障时,可以从其他故障域获取相同的数据,使存储系统具有较高的抗故障能力,可靠性较高,从而保证了数据服务的顺利进行,同时数据的安全性也不会受到影响。

上述生成的副本数量,通常由企业的业务需求,或者当前存储系统的冗余策略决定;副本数量越大,存储系统可靠性就越强,但可以存储的数据量较小;副本数量越小,存储系统可靠性就越低,但可以存储的数据量较大。

另外,还可以采用纠删码技术对待存储的数据进行处理;具体而言,首先将待存储数据分割成n个原始数据块,再根据这n个原始数据块运算得到m个校验数据块,共得到n+m个数据块;当其中任意不大于m块的数据块(包括原始数据块和校验数据块)出错时,均可以通过剩余的数据块,采用对应的重构算法恢复出那n个原始数据块。存储系统中,将这n+m个数据块分布在不同的故障域内;这样,当其中一个故障域内的存储服务器发生故障时,可以从其他故障域获取数据块,并重构出原始数据块。

上述故障域的划分范围和级别,可以根据存储系统的规模,企业的业务需求等因素进行调整、变动;例如,当存储系统规模较小时,可以将一台或多台存储服务器划分为一个故障域,每个存储服务器中通常设置有多个存储硬盘;当系统规模较大时,通常会采用基站的形式,一个基站管理多台存储服务器,此时,可以将一个或多个基站,及其被管理的存储服务器划分为一个故障域。在故障域划分过程中,通常会保持各个故障域相一致,即每个故障域内的存储服务器数量相同,每个故障域内的各存储服务器的性能配置相同。

通常,如果一个故障域内有一个存储节点(例如,存储服务器或者存储硬盘)发生故障,该故障域就需要进行故障恢复;在故障恢复过程中,存储系统可以继续提供服务,但整体的运行效率以及性能都会受到影响,导致业务服务效率降低;如果存储系统中有多个故障域都出现故障节点,且出现故障节点的故障域数量达到了上述数据的副本数量,此时很有可能出现某些数据的所有副本所在的存储节点都发生故障,造成这些数据丢失,为了避免涉及到这些数据的业务服务失败,通常该存储系统需要中断服务,对发生故障的故障域进行修复。

当分布式存储系统的规模越来越大时,系统中的故障域数量,以及每个故障域内的存储节点数量都会增加;故障域内的存储节点增加后,该故障域出现故障节点的概率也会增加;例如,故障域内的存储节点为4个时,则出现故障节点的可能性为4;该故障域的存储节点扩展至10个时,则出现故障节点的可能性就增加到了10。系统中的故障域数量后,存储系统中出现故障节点的故障域数量很容易达到设置的副本数量,即存储系统需要中断服务的概率大大增加;存储系统频繁中断,导致存储系统的稳定性较差,服务性能受到影响,难以满足企业用户的业务需求。

基于上述大规模存储系统服务性能较差的问题,本公开实施方式提供了一种分布式存储系统、方法和装置;该技术可以应用于分布式存储集群、存储系统中,尤其可以应用于企业用户的分布式存储系统中。如图2所示,该分布式存储系统包括多个保护域;每个保护域包括多个故障域,每个故障域包括一组存储节点;同一数据的各个副本保存于同一个保护域内的不同故障域的存储节点上,以在出现故障存储节点时,在故障存储节点所属的保护域内进行维护。

另外,本公开实施方式中每个保护域中,故障域的最大允许故障数量小于副本的数量。

本实施方式中,系统包括的保护域数量、每个保护域包括的故障域数量、以及每个故障域包括的存储节点的数量均不做具体限定;数据多个副本随机保存在同一个保护域的不同故障域中;或者,根据保护域中每个故障域的存储状况,多个副本保存在同一个保护域的指定的不同故障域中。图2中以系统包括两个保护域,每个保护域包括三个故障域为例进行说明;如果同一数据包含两个副本,则这两个副本可以随机保存在同一个保护域的两个故障域中,或者根据每个故障域的存储状况,保存在同一个保护域的两个指定的故障域中。如果同一数据包含三个副本,则这三个副本可以分别保存在同一个保护域的三个故障域中。

由于同一数据的各个副本保存于同一个保护域内,因此,各个保护域保存的是完全不同的数据,彼此之间不存在数据的交叉,即两两保护域之间不可能保存同一数据的副本;当系统出现故障存储节点需要进行维护时,该存储节点所属的保护域的运行效率和性能会受到影响;而其他保护域的运行效率和性能保持不变,缓解了系统因为一个故障存储节点导致系统整体性能降低的问题,提高了系统的稳定性和可靠性。

由上述可知,在不设置保护域的情况下,系统通常要求故障域的最大允许故障数量小于副本的数量,由于系统中每两个故障域之间均可能存在数据交叉,如果出现故障节点的故障域数量达到了副本数量,为了避免数据丢失,通常该存储系统需要中断服务,对发生故障的故障域进行修复。若通过上述方式设置了保护域,每个保护域中,故障域的最大允许故障数量也小于副本的数量,如果某一保护域内出现故障节点的故障域数量达到了副本数量,仅需要中断该保护域的数据服务,其他保护域不受影响。通常,只有在所有的保护域内出现故障节点的故障域数量达到了副本数量时,系统整体才会停止服务;通过设置保护域,大大降低了系统停止服务的几率,提高了系统的可靠性。

以图2所示的分布式存储系统为例,假设数据的副本数量为2;如果其中一个保护域的一个故障域发生故障存储节点,则该保护域进行故障修复,对另一个保护域不产生影响;如果其中一个保护域的两个故障域发生故障存储节点,则该保护域停止服务,对另一个保护域也不产生影响;仅当其中一个保护域的两个或以上故障域发生故障存储节点,另一个保护域的两个或以上故障域也发生故障存储节点时,相当于系统出现四个故障域发生故障存储节点,该分布式存储系统才停止服务。

如图2所示,如果该系统不设置保护域,或关闭保护域的功能,在数据的副本数量同样为2的情况下,如果一个故障域发生故障存储节点,则系统整体性能受到影响;如果两个或以上故障域发生故障存储节点,相当于系统出现两个故障域发生故障存储节点,系统就会停止服务。

由上述对比可知,本公开实施方式提供的分布式存储系统,通过将系统划分成多个保护域,可以将同一数据的各个副本保存于同一个保护域内的不同故障域的存储节点上,以在出现故障存储节点时,在故障存储节点所属的保护域内进行维护,该方式提高了系统可容忍的最大故障节点数量,降低了故障存储节点的影响范围和系统停止服务的几率,提高了分布式存储系统的安全性和可靠性。

参见图3和图4分别所示的另一种分布式存储系统的结构示意图;该实施方式中,系统包含18个主机(即上述存储节点),共6个基站(也可以称为rack或机架),每个基站管理3个主机;该系统中,每个基站及其管理的主机为一个故障域;图4中,一个保护域包含三个故障域。

当待存储的数据副本为2时,例如,副本a和副本b;副本a和副本b同时保存在保护域1或保护域2中;如果同时保存在保护域1,可以在基站1、基站2和基站3中选择其中两个基站保存该副本a和副本b,例如,副本a保存在基站1中,副本b保存在基站3中。此时,即使保护域1和保护域2中均有一个基站出现了主机故障,系统依然可以运行;只有保护域1和保护域2中出现两个基站发生主机故障时,系统中断服务。

同样地,如图3所示,如果该系统不设置保护域,则副本a和副本b可能保存在基站1至基站6中任意两个基站中;当存在大量数据时,导致基站1至基站6的两两基站均可能保存同一数据的副本;6个基站中,任意一个故障域发生故障存储节点,则系统整体性能受到影响;6个基站中,任意两个或以上故障域发生故障存储节点,系统就会停止服务。

由上述可知,受到数据的副本数量的限制,存储系统中允许的故障存储节点数或者不同节点内的故障存储硬盘数是一定的;因此,系统内的存储节点或存储硬盘数量越多,该系统因节点故障导致系统业务受到影响的概率越大,通常呈线性增长关系。通过将系统划分保护域,可以降低这个概率,每个保护域内允许的故障存储节点或者不同节点内的故障存储硬盘数与没有划分保护域时整个集群允许的故障存储节点数或者不同节点内的故障存储硬盘数是一致的。因此,对于同样规模的分布式存储系统,划分了保护域后,在保证不中断服务的情况下,系统可以容忍的最大故障节点的个数相比于未划分保护域时可以容忍的最大故障节点的个数有成倍数的增大,以图3和图4中所示系统为例,未划分保护域时,系统可以容忍的最大故障节点数为1,如果大于1,系统则中断服务;划分了两个保护域后,系统可以容忍的最大故障节点数为2,如果大于2,系统则中断服务。因此,该方式有效提升了分布式存储系统在异常情况下的可靠性、稳定性、健壮性和数据的安全性。

在另外一种实施方式中,考虑到数据本身存在多种类型,不同类型的数据对应的服务要求不同;例如,对于需要读写速度快的数据类型,可以采用块存储服务;对于需要共享性能高的数据类型,可以采用文件存储服务;对于既需要读写速度快、又需要共享性能高的数据类型,则可以采用存储成本较大的对象存储服务。

分布式存储系统规模较大时,可能会设置上述多种存储服务的接口,以提供不同的存储服务;但各种存储服务的接口分布位置较为随机,在存储数据时,受到存储位置、存储空间等条件的限制,存储系统难以根据数据的服务要求选择匹配的存储服务,常常将不同服务要求的数据存储在同一故障域、同一主机、甚至同一存储硬盘中,导致不同服务要求的数据在物理资源上交叉分布。

例如,把需要共享性能高的数据类型保存至块存储服务中,把需要读写速度快的数据类型保存至文件存储服务中,这种混杂的存储方式使得各种数据的存储性能不能满足服务要求,导致系统整体的存储效率较低。

基于上述原因,本公开实施方式还提供了另一种分布式存储系统,如图5所示,该系统包括多个分区,每个分区内分别设置有一个或多个存储性能相同的保护域;每个保护域内的存储节点的存储性能相同。

为了使同一分区内的保护域具有相同的存储性能,在同一分区中,可以采用同一种存储服务,即该分区的存储服务可以为块存储、文件存储和对象存储中的一种;为了使每个保护域内的存储节点的存储性能相同,保护域内的存储节点可以采用物理资源型号相同或相近的存储设备,例如,存储节点可以采用ssd(solidstatedrive,固态硬盘)提供高性能存储服务,可以采用hdd(harddiskdrive,硬盘驱动器)提供普通性能存储服务。

在对系统中的存储节点进行分区时,通常从物理层面进行划分,以实现各分区之间物理资源上的隔离,除监控节点外的各分区之间不共享物理资源,每个分区用于存储预先配置的存储服务对应的数据,从而保证不同存储服务所使用不同的物理资源。在物理层面上,每个存储系统中的各个存储节点的总集合可以视为一个大的存储池,而各个分区中的存储节点还可以视为该分区对应的存储池,每个存储池用于提供一种更加细分的存储服务;不同的存储池包括的存储节点的存储性能可以不同,在执行存储服务时,可以根据服务的要求选择不同的存储池。通过划分存储池,可以进一步实现不同存储服务在物理资源上的隔离。

上述分布式存储系统,首先可以根据各个存储节点的性能将系统划分成多个分区,再将各分区划分成存储性能相同的保护域,且每个保护域内的存储节点的存储性能相同;这种分区方式使不同的存储服务的数据分布在不同的物理资源上,通过不能性能的物理资源提供不同性能的存储服务,使数据类型与存储性能相匹配,在保证系统的安全性和可靠性的前提下,提高了系统存储效率。

本公开实施方式还提供了另一种分布式存储系统,如图6所示,系统可以根据每个分区的实际业务需求、规模等因素选择是否设置保护域;如分区1所示,分区1中直接将各个基站及其管理的主机划分为故障域;而分区2中,首先将基站1、基站2和基站3及其管理的主机划分为保护域1,将基站4、基站5和基站6及其管理的主机划分为保护域2;以保护域1为例,再将每个基站及其管理的主机划分为故障域。可以理解,通常每个基站均管理有一个或多个主机,为了方便显示,图6中部分基站的主机没有示出。

上述分区可以作为集群(即上述分布式存储系统)中的存储区域单元,每个分区包含若干台集群内主机,不同分区中为用户提供不同的存储业务服务;通过分区可以满足不同存储业务数据间的隔离,以及用户使用不同性能的块存储需求。在分区的基础上,每个分区进一步划分了多个保护域,以提高集群的可靠性;而故障域是集群中数据分布的最小单元,由于划分了故障域,一个数据的几个副本或数据块会分布在同一分区下的几个不同的故障域内,当集群出现故障时,可以进一步提高集群的可靠性。

对应于上述系统实施方式,本公开还提供了一种分布式存储方法;该方法应用于分布式存储系统的监控节点,该监控节点与分布式存储系统中的各个存储节点连接,用于进行数据存储和存储节点的故障监控和故障维护。该系统包括多个保护域;每个保护域包括多个故障域,每个故障域包括一组存储节点;如图7所示,该方法包括如下步骤:

步骤s702,接收待存储的数据;

步骤s704,生成数据的多个副本;

步骤s706,将数据的多个副本分别存储至同一个保护域内的不同故障域的存储节点上。

该分布式存储方法,接收到待存储的数据后,生成该数据的多个副本,进而再将数据的多个副本分别存储至同一个保护域内的不同故障域的存储节点上;该方式可以在出现故障存储节点时,在故障存储节点所属的保护域内进行维护,提高了系统可容忍的最大故障节点数量,降低了故障存储节点的影响范围和系统停止服务的几率,提高了分布式存储系统的安全性和可靠性。

上述系统中,每个保护域内的存储节点的存储性能相同;系统还包括多个分区,每个分区内分别设置有一个或多个存储性能相同的保护域,将多个副本分别存储至同一个保护域内的不同故障域的存储节点上的步骤,包括:判断数据对应的存储服务,该存储服务包括块存储、对象存储或文件存储;根据数据对应的存储服务选择分区;将数据的多个副本分别存储至所选分区的同一保护域内的不同故障域的存储节点上。

上述方法还包括:监控每个保护域中的存储节点;如果监控到故障存储节点,且保护域中的故障域数量未达到预设的最大允许故障数量,在故障存储节点所属的保护域内进行维护;如果监控到故障存储节点,且保护域中的故障域数量达到预设的最大允许故障数量,中断故障存储节点所属的保护域的存储服务。

本实施方式提供了一种与上述方法实施方式相对应的一种分布式存储装置。图8为该分布式存储装置的结构示意图,该分布式存储装置可以设置在分布式存储系统中的监控节点上;如图8所示,该装置包括存储器100和处理器101;其中,存储器100用于存储一条或多条计算机指令,一条或多条计算机指令被处理器执行,以实现上述分布式存储方法,该方法可以包括以上方法中的一种或多种。

进一步,图8所示的分布式存储装置还包括总线102和通信接口103,处理器101、通信接口103和存储器100通过总线102连接。

其中,存储器100可能包含高速随机存取存储器(ram,randomaccessmemory),也可能还包括非不稳定的存储器(non-volatilememory),例如至少一个磁盘存储器。通过至少一个通信接口103(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网,广域网,本地网,城域网等。总线102可以是isa总线、pci总线或eisa总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图8中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。

处理器101可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器101中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器101可以是通用处理器,包括中央处理器(centralprocessingunit,简称cpu)、网络处理器(networkprocessor,简称np)等;还可以是数字信号处理器(digitalsignalprocessing,简称dsp)、专用集成电路(applicationspecificintegratedcircuit,简称asic)、现成可编程门阵列(field-programmablegatearray,简称fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本公开实施方式中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本公开实施方式所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器100,处理器101读取存储器100中的信息,结合其硬件完成前述实施方式的方法的步骤。

本发明实施方式还提供了一种机器可读存储介质,该机器可读存储介质存储有机器可执行指令,该机器可执行指令在被处理器调用和执行时,机器可执行指令促使处理器实现上述分布式存储方法,具体实现可参见方法实施方式,在此不再赘述。

本发明实施方式所提供的分布式存储装置,其实现原理及产生的技术效果和前述方法实施方式相同,为简要描述,装置实施方式部分未提及之处,可参考前述方法实施方式中相应内容。

在本申请所提供的几个实施方式中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施方式仅仅是示意性的,例如,附图中的流程图和框图显示了根据本公开的多个实施方式的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

另外,在本公开各个实施方式中的各功能模块或单元可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。

所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施方式所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-onlymemory)、随机存取存储器(ram,randomaccessmemory)、磁碟或者光盘等各种可以存储程序代码的介质。

最后应说明的是:以上所述实施方式,仅为本公开的具体实施方式,用以说明本公开的技术方案,而非对其限制,本公开的保护范围并不局限于此,尽管参照前述实施方式对本公开进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,其依然可以对前述实施方式所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本公开实施方式技术方案的精神和范围,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应所述以权利要求的保护范围为准。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1