分布式内存磁盘群集储存系统运作方法与流程

文档序号:21777676发布日期:2020-08-07 19:45阅读:261来源:国知局
分布式内存磁盘群集储存系统运作方法与流程

本发明涉及一种分布式内存磁盘群集储存系统运作方法,特指一种具备快速多对多传输、高扩充性及稳定性等多特征的网络信息交流储存系统的分布式内存磁盘群集储存系统运作方法。



背景技术:

在近年来中,随着网络应用的快速普及与行动装置的网络需求增长,让企业讯息系统有了很大的改变。计算器资源的需求从未达到如此的高度,在面对同时间暴增的用户量下,以目前的储存设备是无法应付这样庞大数量用户的联机与带宽需求。

首先,于目前的网络处理服务器硬件系统中,电子信息需通过网络桥接做为彼此之间相互对传的途径,然而于信息量位于正常水平之时,网络传输量虽然足以应付,但在信息量突增之时,因为网络桥接传输的传输率有其上限值,因此无论服务器计算器本身硬件等级为何,也无法增加庞大信息的处理速度,而会使大众使用网络系统时面对信息延迟或者中断等等窘境。

此外,于现有技术中,因为内存的技术发展未达到现在的高度,因此其储存量受到限制,仅能作为暂存之用,因此传统服务器主机硬件规格都是以硬盘设备作为主要储存以及主运作系统的配置空间。

而于硬件与硬件间的信息传输而言,处理单元与内存的信息对传速度远远高于处理单元与硬盘设备间的传输速度,也就是说,现有技术中以硬盘设备为主要储存空间来做运算的支持,是导致处理效能无法达到最佳的主要原因,尤其于处理信息量大时此问题更是突显放大,另外,硬盘设备于使用寿命上更是远远不能与内存相比,通过硬盘设备作为主要的储存方式对于整体系统而言,于应用上保障有限,因此不是最佳模式。

综上可知,于现有技术中网络信息的处理设备处理庞大的信息时,其效能无法发挥处理器的真实处理效率,因此,实有必要提出一种技术手段,以解决上述问题。



技术实现要素:

为解决上述现有技术不足之处,本发明主要目的在于提供一种分布式内存磁盘群集储存系统(distributedmemorydiskclusterstoragesystem)运作方法,其可以做到满足跨区域、数据中心、wan的使用,让用户需求可以在当地的群集内存磁盘(clustermemorydisk)集中提供服务、也可以渐进式的扩充群集内存磁盘容量,进一步提供跨区域或跨国的数据服务。

为达上述目的,本发明所采用的技术手段为设计一种分布式内存磁盘群集储存系统运作方法,其为:首先建置分散内存式储存设备,其包含将多台的计算机单元组成群集架构而形成群集内存磁盘;而后在计算机单元安装系统虚拟机平台操作系统(virtualmachineplatform),通过此安装令计算机单元形成多个虚拟机(virtualmachine),而该计算机单元设定利用操作系统或程序软件来设定内存容量占用的方式,将该内存规划成储存装置,做成多个区块内存磁盘;进而将每一个档案拆成一到多份的数据,保持一到多份的复本复制平均分散在所有区块内存磁盘上,并使用多信道的内存总线并行存取内存模块,而将内存模块的容量规划成磁盘使用,而其中该内存模块的存取支持所有操作系统文件格式,并且采用分布式存放架构,将数据可以复制复本一份以上;当虚拟机的操作系统在内存模块中直接由cpu存取需要的档案,处理数据后存回内存模块中,虚拟机做计算使用的内存也在内存模块中,计算完依然直接存回在所存放虚拟机操作系统(virtualmachineoperatingsystem)的内存模块位置,让这个储存系统内数据可以在计算机单元中以平行运算的方式在区块内存磁盘处理数据;其他没有在计算机单元的数据通过网络卡连接一端口群组现用链(connectionportclusterlink)以存取其他计算机单元的区块内存磁盘;而各计算机单元进一步依功能性区分为一第一数据中心、至少一个第二数据中心及一备份中心;其中该第一数据备份中心以一虚拟群集数据主控站控管,其中各该第二数据中心以一虚拟群集数据备份站控管,且其中该备份中心以虚拟群集数据备份站控管,而其中该第一数据中心与该第二数据中心共同形成一分布式内存文件系统(distributedmemoryfilesystem);此外,更进一步为形成堆栈架构扩展储存容量架构,其使用网络层接口(networklayerinterface)的存取方式将一台计算机单元中多个区块内存磁盘规划成一个群集概念的群集内存磁盘单元资源池,同步使用所有区块内存磁盘取得数据;当群集架构产生后,每一个群集架构都可以独立使用,并且可以将每一个群集架构当作分散内存式储存设备单元,同时使用网络层接口堆栈,可以将每个分散内存式储存设备单元仿真成大型的内存磁盘,并采用新的虚拟群集数据主控站与虚拟群集数据备份站来控制数据的处理量分散在所有大型的内存磁盘。

其中,各该区块内存磁盘分别电性连接于至少一硬盘储存装置,该硬盘储存装置可于一间隔时间将该区块内存磁盘的数据做备份。

其中,所有的计算机单元中的区块内存磁盘,都会使用连续数据保护方式,无间断的连续将数据备份到统一的大型物理硬盘群集磁盘阵列(harddiskclusterarray)中备份。

其中,该计算机单元为俱备了cpu、内存、硬盘、网络卡、主板、i/o适配卡、连接线、外壳的计算器设备。

其中,每份复本都可以采用1-4096位aes与rsa混用加密数据存放在内存上,每当要存取数据时,数据在内存与cpu之间流动,虚拟机以档案形式存在于内存模块中,虚拟内存所规划使用的内存容量也在同一区块。

其中,各该区块内存磁盘通过一监控单元来监控其运作情况,该监控单元利用splunk或者是其他搜索引擎的软件程序来监控,当检测到问题时还可以配置重新启动应用程序服务,达到一回复的功能。

其中,虚拟机平台操作系统采用vmwarevsphereesxi4.1之后的版本、microsoftserver2012r2hyper-v之后的版本、citrixxenserveroraclevm、oeaclevm、redhatkvm、redhatcontrolgroups(cgroups)、redhatlinuxcontainers(lxc)、kvm、eucalyptus、openstack、usermodelinux、lxc、openvz、opennebula、enomaly'selasticcomputing、openflow或linux-basekvm。其中虚拟机操作系统采用linux、freebsd、opensolaris或macosx。

其中,虚拟机的内存间使用存储局域网络架构运行,采取软件虚拟出来的网络层接口,将所有的区块内存磁盘连接在一起协同运作。

其中,该网络层接口,使用san、saniscsi、sanfc、sanfcoe、nfs、nas、jbod、cifs或fuse接口进行服务器和磁盘驱动器设备之间的通信,并且开发有ramstoragetmapi作为应用程序支持用。其中该ramstoragetmapi系采用rest、restful、c++、php、python、java、perl或javascript程序开发软件所形成的ramstoragetmapi,存取分散内存式储存设备单元api功能,其包含容错、备份、移转、快速布署虚拟机、管理磁盘大小、自动依照实际需求容量自动增加区块内存磁盘、区块间数据负载平衡移转、备份回复的功能、连续数据保护、快照、监控资源等。

其中,未使用的cpu、内存、实际物理硬盘的资源,使用虚拟机平台操作系统将所有资源规划成统一的资源池(commonresourcepool,公共资源池),令每一个所需要计算机资源,可以调整移转到其他资源较充裕的计算机单元。

其中,多个分散内存式储存设备单元的连接方式依照实体的网络协议传送,并且采用sslvpn、vpn或加密演算方式传送封包,每当网络联机不通时,每个区域都可以单独运作,当联机回复时,数据将完整同步到每个分散内存式储存设备单元中的每个区块内存磁盘。

其中,该cpu为x86、x86-64、ia-64、alpha、arm、sparc32and64、powerpc、mips、tilera其中的一种处理器。

其中,该计算机单元的内存使用方式是直接由cpu的内存控制器直接以三通多或多通道以800mhz到1333mhz以上的速度直接存取内存数据。

其中,内存容量为1mb至16zb。其中所采用的内存种类为动态异步内存dram、动态同步内存dram、动态移动平台内存、动态绘图处理内存、动态rambus内存、静态随机存取存储器、只读存储器、磁阻式随机存取内存或闪存。其中,动态异步内存dram为fpmram或edoram。其中动态同步内存dra为sdram、ddrsdram、ddr2sdram、ddr3sdram、ddr4sdram或ddr5sdram。其中磁阻式随机存取内存为mram或铁电式内存feram;或相变化内存pcram;或可变电阻式内存reram。其中动态移动平台内存为lpddr、lpddr2、lpddr3或lpddr4。其中动态绘图处理内存为vram、wram、mdram、sgram、sdram、gddr、gddr2、gddr3、gddr4、gddr5、gddr6或gddr7。其中动态rambus内存为rdram、xdrdram或xdr2dram。其中闪存为norflash、nandflash、3dnandflash、v-flash、slc、mlc、emmc或tlc。

其中,硬盘储存装置为传统磁头、磁盘的硬盘、固态硬盘、网络硬盘、sas接口硬盘、sata接口硬盘、msata接口硬盘、pcie接口硬盘、fc接口硬盘、scsi接口硬盘、ata接口硬盘、nandflash外接卡或fcoe接口硬盘。

其中,网络卡为以太网络、快速以太网络、千兆以太网络、光纤、令牌环网、infiniband、fcoe或无线网络。

其中,网络速度采用2mbit/s、10mbit/s、11mbit/s、40mbit/s、54mbit/s、80mbit/s、100mbit/s、150mbit/s、300mbit/s、433mbit/s、1000mbit/s、1gbit/s、8gbit/s、10gbit/s、16gbit/s、32gbit/s、40gbit/s、56gbit/s、100gbit/s、160gbit/s或1000gbit/s以上的网络速度。

其中,主板兼容x86、x86-64、ia-64、alpha、arm、sparc32and64、powerpc、mips、tilera中任何一种处理器。

其中,操作系统文件格式是vmfs3、vmfs5与格式不同所产生新的向上兼容型态型号、vhd与格式不同所产生新的向上兼容型态型号、vhdx与格式不同所产生新的向上兼容型态型号、vmdk与格式不同所产生新的向上兼容型态型号、hdfs与格式不同所产生新的向上兼容型态型号、isilononefs与格式不同所产生新的向上兼容型态型号、内存式的页面文件案所产生的任何格式与格式不同所产生新的向上兼容型态型号、ves与格式不同所产生新的向上兼容型态型号、vpss与格式不同所产生新的向上兼容型态型号、ceph、glusterfs、spherefs、taobaofilesystem、zfs、sdfs、moosefs、advfs、bfs、btrfs、coda、crossdos、dfs、episode、efs、exfat、ext、fat、gfs、hfs、hfsplus、高性能文件系统、ibm通用并列文件系统、jfs、macintosh文件系统、minix、netware文件系统、nilfs、novell储存服务、ntfs、qfs、qnx4fs、reiserfs、spadfs、ubifs、unix文件系统、veritasvxfs、vfat、wafl、xfs、xsan、chfs、ffs2、f2fs、jffs、jffs2、logfs、nvfs、yaffs、ubifs、dce/dfs、mfs、cxfs、gfs2、google文件系统、ocfs、ocfs2、qfs、xsan、afs、openafs、afp、ms-dfs、gpfs、lustre、ncp、nfs、pohmelfs、hadoop、hammer、smb(cifs)、cramfs、fuse、squashfs、umsdos、unionfs、configfs、devfs、procfs、specfs、sysfs、tmpfs、winfs、encfs、efs、raw、asm、lvm、sfs、mpfs或mgfs。

与现有技术相比,本发明一种分布式内存磁盘群集储存系统运作方法于设计上通过于本发明所提出的系统架构方法之下,采用分布式内存储存系统,可以满足四种需求的扩充,即网络带宽传输的扩充、磁盘容量的扩充、iops速度的扩充、内存i/o传输速度增加的扩充,同时可以做到满足跨区域、数据中心、wan的使用,让用户需求可以在当地的群集内存磁盘(memorydiskcluster)集中提供服务、也可以渐进式的扩充群集内存磁盘容量,进一步提供跨区域或跨国的数据服务。

随着储存器的增加,每增加一台服务器就累加一台机器的网络带宽与磁盘容量,当形成一个资源池(resourcepool)时,这分散内存式储存设备单元就像一颗实体硬盘,其中一台实体主机故障时不会影响整体运作,复本中区块内存磁盘会重新复制数据到新的区块内存磁盘,维持一定数据备份基础,同时也采取连续数据复制(continuousdataprotector,cdp)为企业数据的备份和回复提供创新技术,以破除磁带备份经常失败,一天只能备份一次问题。也让复本产生数据可以由不同区块内存磁盘送出达到多对一传输数据,当用户数量增加,只要增加区块内存磁盘数量,可以达到多对多的传输,让raid的多数硬盘崩溃造成整体数据遗失的缺点,储存器网络接口数量与速度的限制造成用户过多的数据拥挤造成的延迟,lun扩充数量的问题,数据中心无法跨区使用的问题,因为采用内存式磁盘方式,每个档案或是每个虚拟机都可以用档案形式存在于内存,直接使用内存总线最高的i/o高速度,数据在cpu与内存中搬迁移动,i/o次数、距离、速度都是最高的。

为了使得本发明的前述特征和优点便于理解,下文详细描述带有附图的示例性实施例。应理解,前述一般描述和以下详细描述都是示例性的,且意图提供对所要求的本发明的进一步解释。

然而,应理解,本发明内容可不含有本发明的所有方面和实施例,且因此不意味着以任何方式加以限制或约束。此外,本发明将包含对本领域技术人员显而易见的改进和修改。

附图说明

包含附图以提供对本发明的进一步理解,且附图并入本说明书中并构成本说明书的一部分。所述附图示出本发明的实施例,且与描述一起用以解释本发明的原理。

图1为本发明一种分布式内存磁盘群集储存系统运作方法的实施示意图;

图2为本发明一种分布式内存磁盘群集储存系统运作方法的实施示意图。

附图标号说明

1:群集架构

1a:分散内存式储存设备单元

10:计算机单元

11:区块内存磁盘

12:硬盘储存装置

13:网络卡

20:端口群组现用链

40:分布式内存文件系统

101:第一数据中心

102:第二数据中心

103:备份中心

1011:虚拟群集数据主控站

1021:虚拟群集数据备份站

具体实施方式

为使审查员了解本发明的特征、内容与优点及其所能达成的功效,将本发明配合附图,并以实施例的表达形式详细说明如下。在此需说明的是,在本发明中所使用的附图,其主旨仅为示意及辅助说明书,未必为本发明实施后的真实比例与精准配置,故不应将附图的比例与配置关系局限本发明于实际实施上的专利范围。

图1为本发明一种分布式内存磁盘群集储存系统运作方法的实施示意图。请配合参看图1所示,本发明提出一种分布式内存磁盘群集储存系统运作方法,其中该分布式内存磁盘群集储存系统运作方法于一较佳实施方式可为:首先建置分散内存式储存设备,其包含将多台的计算机单元10组成群集架构1而形成群集内存磁盘;而其中该计算机单元10为俱备了cpu、内存、硬盘、网络卡、主板、i/o适配卡、连接线、外壳的计算器设备。

主要在计算机单元10安装系统虚拟机平台操作系统,通过此安装令计算机单元10形成多个虚拟机,而该计算机单元10设定所须要使用机器内存资源容量,利用操作系统来设定内存容量占用的方式,或者是利用程序软件将该内存规划成硬盘装置,做成一个区块内存磁盘(chunkmemorydisk)11,这便如同硬盘的磁道一般。

进而得以将一个档案拆成一到多份的数据,档案大小或可为64mb以上,保持一到多份的复本复制平均分散在所有区块内存磁盘11上,故数据实际存放在内存模块里,并使用多信道的内存总线并行存取内存模块,而将内存模块的容量规划成磁盘使用,而其中该内存模块的存取支持所有操作系统文件格式,并且采用分布式存放架构,将数据可以复制复本一份以上,通过此方式,即使机器损毁与数据中心损毁,数据中心依然可以运作。

每份复本数据都可以采用1-4096位aes与rsa混用加密数据存放在内存上,每当要存取数据时,数据在内存与cpu之间流动,所耗费的i/o存取次数与距离是最少的,虚拟机系以档案形式存在于内存模块中,虚拟内存所规划使用的内存容量也在同一区块。

当虚拟机的操作系统在内存模块中直接由cpu存取需要的档案,处理数据后存回内存模块中,虚拟机做计算使用的内存也在内存模块中,计算完依然直接存回在所存放虚拟机操作系统的内存模块位置,相对依照存取路径的减少与使用最快的i/o速度,让这个储存系统大部分数据可以在计算机单元10中以平行运算的方式在区块内存磁盘11处理数据,其他没有在计算机单元10的数据才通过网络卡13连接一端口群组现用链20以存取其他计算机单元10的区块内存磁盘11。

其中,虚拟机平台操作系统,可以采用vmwarevsphereesxi4.1之后的版本、microsoftserver2012r2hyper-v之后的版本、citrixxenserveroraclevm、oeaclevm、redhatkvm、redhatcontrolgroups(cgroups)、redhatlinuxcontainers(lxc)、kvm、eucalyptus、openstack、usermodelinux、lxc、openvz、opennebula、enomaly'selasticcomputing、openflow、linux-basekvm;而虚拟机操作系统,可以采用可以采用linux(linux2.6.14anduphavefusesupportincludedintheofficialkernel)、freebsd、opensolaris、macosx。

另外,各该区块内存磁盘11还可能通过一监控单元来监控其运作情况,该监控单元或可利用splunk或者是其他搜索引擎的软件程序来监控之,当检测到问题时更可以配置重新启动应用程序服务,达到一回复的功能,而这类型的程序为现有技术,故不在此部分进一步的多加赘述。

而各计算机单元10进一步依功能性又可区分为一第一数据中心101、至少一个第二数据中心102及一备份中心103;其中该第一数据中心101以一虚拟群集数据主控站1011控管,其中各该第二数据中心102以一虚拟群集数据备份站1021控管,且其中该备份中心103以虚拟群集数据备份站1021控管,而其中该第一数据中心101与该第二数据中心102共同形成一分布式内存文件系统40。

而请进一步配合参看图2所示,其中更进一步是为形成堆栈架构扩展储存容量架构,其使用网络层接口的存取方式将一台计算机单元10中多个区块内存磁盘11规划成一个群集概念的群集内存磁盘单元资源池,其运作原理如同计算机的总线使用方式。

当采用多台计算机单元10中64位的区块内存磁盘11,就如同64位的cpu总线形式使用,同步使用所有区块内存磁盘11取得数据,而当向上扩展区块内存磁盘11数量时,如同将64位的cpu总线提升至128位或256位,其存取的速度以累加的方式提升,故其中内存磁盘容量也会因为区块内存磁盘11增加,磁盘容量上限也可以增加,并且提升数据访问速度与数据的可靠度,用户可以依照需求渐进式增加。

当群集架构1产生,每一个群集架构都可以独立使用,并且可以将每一个群集架构1当作分散内存式储存设备单元(dmdcsdistributedmemorydiskclusterstorage)(1a),同时使用网络层接口堆栈,可以将每个分散内存式储存设备单元1a仿真成大型的内存磁盘(chunkmemorydisk),采用新的虚拟群集数据主控站1011与虚拟群集数据备份站1021来控制数据的处理量分散在所有大型的内存磁盘(chunkmemorydisk)。

这便如同平行运算使用每一台主机的资源,将数据分成区块送到每一台机器运算,最后再组合成一个结果。

其中一个区块内存磁盘11或是其中一个分散内存式储存设备单元1a失效,都不会影响整个磁盘的使用或使整个磁盘崩溃。

此外,当一个一台计算机单元10中的内存单元故障,该服务器计算机单元会将损坏的内存标示故障,并且不再使用该dimm内存中的区块内存ic,当更换内存后,才会恢复使用该资源。

而其中虚拟机的内存间使用存储局域网络(storageareanetwork,san)架构运行,采取软件虚拟出来的网络层接口,将所有的区块内存磁盘连接在一起协同运作;而该网络层接口,使用san、saniscsi、sanfc、sanfcoe、nfs、nas、jbod、cifs、fuse接口进行服务器和磁盘驱动器设备之间的通信,并且开发有ramstoragetmapi作为应用程序支持用。

其中,该ramstoragetmapi采用rest、restful、c++、php、python、java、perl、javascript与其他程序开发软件所形成的ramstoragetmapi,存取分散内存式储存设备单元(dmdcsdistributedmemorydiskclusterstorage)(1a)api功能,其包含容错、备份、移转、快速布署虚拟机、管理磁盘大小、自动依照实际需求容量自动增加区块内存磁盘11、区块间数据负载平衡移转、备份回复的功能、连续数据保护(cdp)、快照、监控资源等。

此外各该区块内存磁盘11分别电性连接于至少一硬盘储存装置12,该硬盘储存装置12可于一间隔时间将该区块内存磁盘11的数据做备份,以防止非预期的故障产生,例如每一个区块内存磁盘11每一分钟内都会将所改变过的数据,将差异的部分实际复制一份到实际物理硬盘储存装置12备份数据。

当每一个区块内存磁盘11重新启动后,都会将最后备份在实际物理硬盘储存装置12上数据,完整的还原到区块内存磁盘11上,并且通知虚拟群集数据主控站1011加入群集环境运作。

所有的计算机单元10中所有的区块内存磁盘11,都会使用连续数据保护方式(continuousdataprotector,cdp),无间断的连续将数据备份到统一的大型物理硬盘群集磁盘阵列中备份,每当部分服务器计算机单元或部分区块内存磁盘11因为环境或其他因素失效,都可以依照需要的时间找出快照备份或是时间点还原虚拟机,而其中所述的大型物理硬盘为前述的备份中心103,当然群集磁盘阵列也可以用传统的磁带方式作第三份完整备份。

每个区块内存磁盘11都可以使用自动部属的方式规划所需要的容量与cpu资源,网络层接口也可以自动设定所需要的网络ip与macaddress,并且一种实际需求设定ap在虚拟机上,并可以自动分派所需设定条件。

另外,若未使用的cpu、内存、实际物理硬盘的资源,可以使用虚拟机平台操作系统将所有资源规划成统一的资源池,每一个所需要计算机资源,可以自动调整移转到其他资源较充裕的计算机单元10。

多个分散内存式储存设备单元1a的连接方式则可以依照实体的网络协议传送,并且采用sslvpn、vpn或加密演算方式传送封包,并可以达到跨区域、国家、wanip的方式运作,每当网络联机不通时,每个区域都可以单独运作。当联机回复时,数据将完整同步到每个分散内存式储存设备单元1a中的每个区块内存磁盘11。

而其中于一些硬件规格上的实施态样选择中,该cpu为x86、x86-64、ia-64、alpha、arm、sparc32and64、powerpc、mips、tilera其中之一种处理器。

该计算机单元10的内存使用方式是直接由cpu的内存控制器直接以三通多或多通道以800mhz到1333mhz以上的速度直接存取内存数据。

其中使用的单一内存容量为1mb(megabyte)至16zb(zettabyte),所采用的内存种类可以为动态异步内存dram列举形式为:fpmram、edoram;或动态同步内存dram列举形式为:sdram、ddrsdram、ddr2sdram、ddr3sdram、ddr4sdram、ddr5sdram以及所谓列举出型号为依照访问速度增加与存取方式不同所产生新的向上兼容型态型号;或动态移动平台内存列举形式为:lpddr、lpddr2、lpddr3、lpddr4以及所谓列举出型号为依照访问速度增加与存取方式不同所产生新的向上兼容型态型号;或动态绘图处理内存列举形式为vram、wram、mdram、sgram、sdram、gddr、gddr2、gddr3、gddr4、gddr5、gddr6、gddr7以及所谓列举出型号为依照访问速度增加与存取方式不同所产生新的向上兼容型态型号;或磁阻式随机存取内存,列举形式为mram以及所谓列举出型号为依照存取速度增加与存取方式不同所产生新的向上兼容型态型号;或铁电式内存,列举形式为feram以及所谓列举出型号为依照存取速度增加与存取方式不同所产生新的向上兼容型态型号;或相变化内存,列举形式为pcram以及所谓列举出型号为依照存取速度增加与存取方式不同所产生新的向上兼容型态型号;或可变电阻式内存,列举形式为reram以及所谓列举出型号为依照存取速度增加与存取方式不同所产生新的向上兼容型态型号;或动态rambus内存列举形式为:rdram、xdrdram、xdr2dram以及所谓列举出型号为依照访问速度增加与存取方式不同所产生新的向上兼容型态型号;或静态随机存取存储器(staticrandom-accessmemory,sram)、或只读存储器(read-onlymemory,rom)、或闪存(flashmemory)列举形式为:norflash、nandflash、3dnandflash、v-flash、slc、mlc、emmc、tlc以及所谓列举出型号为依照访问速度增加与存取方式不同所产生新的向上兼容型态型号。

再者,硬盘储存装置12可使用包含传统磁头与磁盘的硬盘、固态硬盘、网络硬盘、sas接口硬盘、sata接口硬盘、msata接口硬盘、pcie接口硬盘、fc接口硬盘、scsi接口硬盘、ata接口硬盘、nandflash外接卡、fcoe接口硬盘,以及所谓列举出型号为依照访问速度增加与存取方式不同所产生新的向上兼容型态硬盘。

其中,网络卡可以选择以太网络、快速以太网络、千兆以太网络、光纤、令牌环网、infiniband、fcoe(fibrechanneloverethernet)或无线网络,而其网络速度可依照网络协议的不同采用2mbit/s、10mbit/s、11mbit/s、40mbit/s、54mbit/s、80mbit/s、100mbit/s、150mbit/s、300mbit/s、433mbit/s、1000mbit/s、1gbit/s、8gbit/s、10gbit/s、16gbit/s、32gbit/s、40gbit/s、56gbit/s、100gbit/s、160gbit/s、1000gbit/s以上的网络速度与任何新型网络协议的网络卡。

其中,主板可兼容x86、x86-64、ia-64、alpha、arm、sparc32and64、powerpc、mips、tilera任何一种处理器兼容的任何架构与品牌计算机制造商所产生的包括beagleboneblack、raspberrypi架构主板。

另外值得注意的是,操作系统文件格式,可以是vmfs3、vmfs5与格式不同所产生新的向上兼容型态型号、vhd与格式不同所产生新的向上兼容型态型号、vhdx与格式不同所产生新的向上兼容型态型号、vmdk与格式不同所产生新的向上兼容型态型号、hdfs与格式不同所产生新的向上兼容型态型号、isilononefs与格式不同所产生新的向上兼容型态型号、内存式的页面文件案所产生的任何格式与格式不同所产生新的向上兼容型态型号、ves与格式不同所产生新的向上兼容型态型号、vpss与格式不同所产生新的向上兼容型态型号、ceph、glusterfs、spherefs、taobaofilesystem、zfs、sdfs、moosefs、advfs、be文件系统(bfs)、btrfs、coda、crossdos、光盘存盘系统(dfs)、episode、efs、exfat、ext、fat、全局文件系统(gfs)、分层文件系统(hfs)、hfsplus、高性能文件系统、ibm通用并列文件系统、jfs、macintosh文件系统、minix、netware文件系统、nilfs、novell储存服务、ntfs、qfs、qnx4fs、reiserfs(reiser4)、spadfs、ubifs、unix文件系统、veritas文件系统(vxfs)、vfat、任意位置写入档案布局(wafl)、xfs、xsan、chfs、ffs2、f2fs、jffs、jffs2、logfs、nvfs、yaffs、ubifs、dce/dfs、mfs、cxfs、gfs2、google文件系统、ocfs、ocfs2、qfs、xsan、afs、openafs、afp、ms-dfs、gpfs、lustre、ncp、nfs、pohmelfs、hadoop、hammer、smb(cifs)、cramfs、fuse、squashfs、umsdos、unionfs、configfs、devfs、procfs、specfs、sysfs、tmpfs、winfs、encfs、efs、raw、asm、lvm、sfs、mpfs、mgfs其中之一。

而实体的网络协议传送,以选择以太网络、快速以太网络、千兆以太网络、光纤、令牌环网、ss7、gsm、gprs、edge、hspa、hspa+、cdma、wcdma、td-wcdma、lte、gsm、cdmaone、cdma2000、umtswcdma、td-scdma、wimax、3g播报网、cdma20001x、wi-fi、superwifi、wi-figo、以及向上兼容ieee所制定出新的网络传输协议。

可见,通过本发明所提出的系统架构方法,采用分布式内存储存系统,可以满足四种需求的扩充,即网络带宽传输的扩充、磁盘容量的扩充、iops速度的扩充、内存i/o传输速度增加的扩充。同时可以做到满足跨区域、数据中心、wan的使用,让用户需求可以在当地的群集内存磁盘(memorydiskcluster)集中提供服务、也可以渐进式的扩充群集内存磁盘容量,进一步提供跨区域或跨国的数据服务。

随着储存器的增加,每增加一台服务器就累加一台机器的网络带宽与磁盘容量,当形成一个资源池(resourcepool)时,这分散内存式储存设备单元1a就像一颗实体硬盘,其中一台实体主机故障时不会影响整体运作,复本中区块内存磁盘11会重新复制数据到新的区块内存磁盘11,维持一定数据备份基础,同时也采取连续数据复制(continuousdataprotector,cdp)为企业数据的备份和回复提供创新技术,以破除磁带备份经常失败,一天只能备份一次问题。也让复本产生数据可以由不同区块内存磁盘11送出达到多对一传输数据,当用户数量增加,只要增加区块内存磁盘11数量,可以达到多对多的传输,让raid的多数硬盘崩溃造成整体数据遗失的缺点,储存器网络接口数量与速度的限制造成用户过多的数据拥挤造成的延迟,lun扩充数量的问题,数据中心无法跨区使用的问题,因为采用内存式磁盘方式,每个档案或是每个虚拟机都可以用档案形式存在于内存,直接使用内存总线最高的i/o高速度,数据在cpu与内存中搬迁移动,i/o次数、距离、速度都是最高的,综观上述优势,可见本发明的进步性。

以上所述实施例仅为说明本发明的技术思想及特点,其目的在使熟悉此项技术的人士能够了解本发明的内容并据以实施,并非用以限定本发明的专利范围,即凡是依本发明所揭示的精神所作的均等变化或修饰,仍应涵盖在本发明的专利范围内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1