云平台的创建方法、装置、云平台以及云平台实现系统与流程

文档序号:25420025发布日期:2021-06-11 21:30阅读:230来源:国知局
云平台的创建方法、装置、云平台以及云平台实现系统与流程

本公开涉及计算机技术领域,特别涉及一种云平台的创建方法、装置、云平台以及云平台实现系统。



背景技术:

“信创”是信息技术应用创新的简称,信创技术是基于我国自主研发的国产化产品和技术,通过核心芯片和系统的自主可控,并借助国产化产品搭建的产品和方案生态,实现国家重要信息系统的安全保障。当前信创技术正处于快速发展阶段,采用云平台对具有国产芯片的信创服务器进行统一管理是一个技术方向。



技术实现要素:

本公开所要解决的一个技术问题是:提出一种新的云平台的创建方法。

根据本公开的一些实施例,提供的一种云平台的创建方法,包括:利用多个第一服务器,构建云平台中的管理集群;利用多个第二服务器,构建云平台中一个或多个计算集群,并在每个计算集群区域上建立独立的计算虚拟化资源池,其中,每个计算集群内第二服务器的cpu的类型相同,不同计算集群的第二服务器的cpu的类型不同;在管理集群与每个计算集群之间部署管理网络,并在管理集群内的第一服务器之间和每个计算集群内的第二服务器之间部署数据网络;在管理集群中注册计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。

在一些实施例中,第一服务器中cpu的性能大于或等于第二服务器中cpu的性能。

在一些实施例中,构建云平台中的管理集群包括:在管理集群中的各个第一服务器上配置第一服务器中cpu对应的操作系统,并在实现不同功能的第一服务器上配置与功能对应的软件。

在一些实施例中,构建云平台中一个或多个计算集群包括:针对每个计算集群,在该计算集群内的各个第二服务器上配置第二服务器中cpu对应的操作系统,虚拟化管理软件以及云平台驻留程序软件,其中,云平台驻留程序软件用于与管理集群进行通信,根据管理集群的指令执行相应的操作,虚拟化管理软件用于进行虚拟化。

在一些实施例中,该方法还包括:通过读取各个备选服务器的系统硬件参数,自动识别各个备选服务器中cpu的类型;根据各个备选服务器中cpu的类型和不同类型的cpu的性能,从各个备选服务器选取第一服务器和第二服务器。

在一些实施例中,该方法还包括:在不进行数据隔离的计算集群之间部署数据网络。

在一些实施例中,该方法还包括:针对进行数据隔离的各个计算集群,将不同计算集群对应的服务器机架设置在不同故障域内;或者,针对不进行数据隔离的各个计算集群,每个故障域内的服务器机架上安装属于不同计算集群的第二服务器。

在一些实施例中,该方法还包括:利用多个第三服务器,构建云平台中的备用管理集群;在管理集群和备用管理集群之间部署数据网络,在备用管理集群内的第三服务器之间部署数据网络,并在备用管理集群与每个计算集群之间部署管理网络;在备用管理集群中注册计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。

在一些实施例中,构建云平台中的备用管理集群包括:在备用管理集群中的各个第三服务器上配置第三服务器中cpu对应的操作系统,并在实现不同功能的服务器上配置与功能对应的软件;其中,备用管理集群配置的软件与管理集群相同,备用管理集群提供的实现每种功能的资源量与管理集群提供的实现相应功能的资源量的差距小于预设值。

在一些实施例中,该方法还包括:识别待添加服务器的cpu的类型;将待添加服务器添加至具有相同类型的cpu的计算集群中;在待添加服务器与管理集群之间配置管理网络,并在待添加服务器与所属的计算集群内的第二服务器之间配置数据网络;将待添加服务器上的虚拟机加入所属的计算集群对应的计算虚拟化资源池中;在管理集群中注册待添加服务器的网络地址,并标记待添加服务器所属的计算虚拟化资源池。

在一些实施例中,将待添加服务器添加至具有相同类型的cpu的计算集群中包括:在待添加服务器上配置cpu对应的操作系统,虚拟化管理软件以及云平台驻留程序软件,其中,云平台驻留程序软件用于与管理集群进行通信,根据管理集群的指令执行相应的操作,虚拟化管理软件用于进行虚拟化。

在一些实施例中,该方法还包括:在管理集群中共享数据在本集群中存储的情况下,管理集群将运行数据实时传输到备用管理集群,备用管理集群实时监测管理集群的运行情况,在管理集群停止工作的情况下,接管管理集群的工作。

在一些实施例中,该方法还包括:在管理集群中共享数据在本集群之外的预设存储地址存储情况下,管理集群将运行数据作为共享数据实时传输到预设存储地址,备用管理集群实时监测管理集群的运行情况,在管理集群停止工作的情况下,从预设存储地址获取共享数据,接管管理集群的工作。

在一些实施例中,该方法还包括:管理集群监测每个计算虚拟资源池内的第二服务器的运行情况;管理集群确定运行情况异常的第二服务器作为异常服务器;管理集群在标记的异常服务器所属的计算虚拟化资源池内定位另一第二服务器,并将异常服务器上的虚拟机迁移到定位的第二服务器上。

在一些实施例中,计算虚拟化资源池中包括:主虚拟机和备用虚拟机;该创建方法还包括:管理集群监测每个计算虚拟资源池内的第二服务器的运行情况;管理集群确定主虚拟机所在的第二服务器故障的情况下,将主虚拟机切换为备用虚拟机,在标记的主虚拟机所属的计算虚拟化资源池内定位另一第二服务器,并在定位的第二服务器上创建新的备用虚拟机。

根据本公开的另一些实施例,提供的一种云平台的创建装置,包括:管理集群构建模块,用于利用多个第一服务器,构建云平台中的管理集群;计算集群构建模块,用于利用多个第二服务器,构建云平台中一个或多个计算集群,并在每个计算集群区域上建立独立的计算虚拟化资源池,其中,每个计算集群内第二服务器的cpu的类型相同,不同计算集群的第二服务器的cpu的类型不同;网络配置模块,用于在管理集群与每个计算集群之间部署管理网络,并在管理集群内的第一服务器之间和每个计算集群内的第二服务器之间部署数据网络;注册模块,用于在管理集群中注册计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。

根据本公开的又一些实施例,提供的一种云平台的创建装置,包括:处理器;以及耦接至处理器的存储器,用于存储指令,指令被处理器执行时,使处理器执行如前述任意实施例的云平台的创建方法。

根据本公开的再一些实施例,提供的一种云平台,包括:包括多个第一服务器的管理集群以及包括多个第二服务器的一个或多个计算集群;其中,每个计算集群区域上建立独立的计算虚拟化资源池,其中,每个计算集群内第二服务器的cpu的类型相同,不同计算集群的第二服务器的cpu的类型不同;管理集群和每个计算集群之间通过管理网络连接,管理集群内的第一服务器之间和每个计算集群内的第二服务器之间通过数据网络连接。管理集群用于登记计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。

在一些实施例中,第一服务器中cpu的性能大于或等于第二服务器中cpu的性能。

在一些实施例中,不进行数据隔离的计算集群之间通过数据网络连接。

在一些实施例中,针对进行数据隔离的各个计算集群,不同计算集群对应的服务器机架设置在不同故障域内;或者,针对不进行数据隔离的各个计算集群,每个故障域内的服务器机架上安装属于不同计算集群的第二服务器。

在一些实施例中,云平台还包括:包括多个第三服务器的备用管理集群;其中,备用管理集群和管理集群之间通过数据网络连接,备用管理集群内的第三服务器之间通过数据网络连接,备用管理集群与每个计算集群之间通过管理网络连接;备用管理集群用于登记计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。

在一些实施例中,在管理集群中共享数据在本集群中存储的情况下,管理集群用于将运行数据实时传输到备用管理集群;备用管理集群用于实时监测管理集群的运行情况,在管理集群停止工作的情况下,接管管理集群的工作;或者,在管理集群中共享数据在本集群之外的预设存储地址存储情况下,管理集群用于将运行数据作为共享数据实时传输到预设存储地址,备用管理集群用于实时监测管理集群的运行情况,在管理集群停止工作的情况下,从预设存储地址获取共享数据,接管管理集群的工作。

在一些实施例中,管理集群用于监测每个计算虚拟资源池内的第二服务器的运行情况;确定运行情况异常的第二服务器作为异常服务器;在标记的异常服务器所属的计算虚拟化资源池内定位另一第二服务器,并将异常服务器上的虚拟机迁移到定位的第二服务器上。

在一些实施例中,计算虚拟化资源池中包括:主虚拟机和备用虚拟机;管理集群用于监测每个计算虚拟资源池内的第二服务器的运行情况;确定主虚拟机所在的第二服务器故障的情况下,将主虚拟机切换为备用虚拟机,在标记的主虚拟机所属的计算虚拟化资源池内定位另一第二服务器,并在定位的第二服务器上创建新的备用虚拟机。

根据本公开的又一些实施例,提供的一种云平台实现系统,包括:前述任意实施例的云平台和前述任意实施例的云平台的创建装置。

根据本公开的再一些实施例,提供的一种非瞬时性计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现前述任意实施例的云平台的创建方法。

本公开利用多个第一服务器构建云平台中的管理集群,利用多个第二服务器,构建云平台中一个或多个计算集群,并且针对每个计算集群建立独立的计算虚拟化资源池,属于同一个计算虚拟化资源池的第二服务器的cpu的类型相同,属于不同的计算虚拟化资源池的第二服务器的cpu的类型不同。通过管理网络的部署使管理集群与每个计算集群之间能够互相通信,通过数据网络的部署实现计算虚拟化资源池内各个第二服务器之间的数据交互。将第二服务器在管理集群注册,并使管理集群标记每个第二服务器所属的计算虚拟化资源池,从而使管理集群可以对同一计算虚拟化资源池的第二服务器的虚拟机在资源池内进行调度和管理。

本公开的方案可以应用于信创技术场景,第一服务器和第二服务器均采用国产cpu,采用管理集群和计算集群分离设计的架构,利用管理集群对计算集群进行统一管理。由于国产cpu可能包括多种类型,对应不同的指令集,在cpu包括多种类型的情况下,通过划分不同计算集群以及建立不同的计算虚拟化资源池,实现对不同cpu的服务上的虚拟机的调度和管理,可以解决不同的cpu类型的服务器上运行的虚拟机的管理问题。此外,本公开的方案相对于部署多套管理集群分别对计算集群进行管理的方案,节省资源。

通过以下参照附图对本公开的示例性实施例的详细描述,本公开的其它特征及其优点将会变得清楚。

附图说明

为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1示出本公开的一些实施例的云平台的创建方法的流程示意图。

图2a示出本公开的一些实施例的高可用分布设计的示意图。

图2b示出本公开的另一些实施例的高可用分布设计的示意图。

图3示出本公开的另一些实施例的云平台的创建方法的流程示意图。

图4示出本公开的又一些实施例的云平台的创建方法的流程示意图。

图5示出本公开的一些实施例的云平台的创建装置的结构示意图。

图6示出本公开的另一些实施例的云平台的创建装置的结构示意图。

图7示出本公开的又一些实施例的云平台的创建装置的结构示意图。

图8示出本公开的一些实施例的云平台的结构示意图。

图9示出本公开的一些实施例的云平台实现系统的结构示意图。

具体实施方式

下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。

本公开提出一种云平台的创建方法,下面结合图1~4进行描述。

图1为本公开云平台的创建方法一些实施例的流程图。如图1所示,该实施例的方法包括:步骤s102~s108。

在步骤s102中,利用多个第一服务器,构建云平台中的管理集群。

在一些实施例中,在管理集群中的各个第一服务器上配置第一服务器中cpu对应的操作系统,并在实现不同功能的第一服务器上配置与功能对应的软件。

管理集群中可以进一步划分实现不同功能的服务节点(第一服务器),例如控制服务节点、存储服务节点、网络服务节点、paas(平台即服务)服务节点中至少一种。分别在不同的服务节点上可以部署云平台控制、存储、网络、容灾、paas功能等平台软件系统。在实现不同功能的第一服务器上还可以配置相应的服务组件,服务组件例如包括:数据库服务、数据缓存服务、消息队列服务、容器管理服务等至少一项,不限于所举示例。

在步骤s104中,利用多个第二服务器,构建云平台中一个或多个计算集群,并在每个计算集群区域上建立独立的计算虚拟化资源池。

在一些实施例中,针对多个计算集群的情况,每个计算集群内第二服务器的cpu的类型相同,不同计算集群的第二服务器的cpu的类型不同。例如,一个计算集群内的第二服务器的cpu为cpua,另一个计算集群内的第二服务器的cpu为cpub。针对不同cpu类型的第二服务器分别建立独立的计算虚拟化资源池,可以控制同一cpu类型的第二服务器上的虚拟机在各自的资源池内进行调度和迁移,基于系统管理策略和用户的需求,对独立计算虚拟化资源池内的虚拟机进行高可用管理和调度,实现不同cpu的第二服务器虚拟化计算资源的统一管理,解决不同cpu上虚拟机指令集不同带来的问题,同时还能减少管理资源开销。

在一些实施例中,针对每个计算集群,在该计算集群内的各个第二服务器上配置第二服务器中cpu对应的操作系统,虚拟化管理软件以及云平台驻留程序软件。云平台驻留程序软件用于与管理集群进行通信,根据管理集群的指令执行相应的操作,虚拟化管理软件用于进行虚拟化。

由于符合国家信创要求的cpu包含多个不同的类型,为了节省成本云平台中也可能采用多种类型的cpu的服务器。可以采用管理集群和计算集群cpu类型分离的设计,即管理集群中第一服务器的cpu的类型与计算集群中第二服务器的cpu的类型不同。当然,第一服务器的cpu的类型可以与一个或多个计算集群中第二服务器的cpu的类型相同。

例如,某些国产cpu芯片,如龙芯等,cpu的核数、内存容量、运算频率等参数指标相对比较低,若用该cpu同时作为管理集群和计算集群中cpu,为了构建一个功能完备和安全可靠的云平台,则会导致成本大幅上升。为此,设计管理集群和计算集群cpu类型分离的方案,在管理集群可以上采用高性能(如cpu核数大、内存容量大)的国产cpua,在计算集群中采用符合用户安全性和政策要求的国产cpub,可以通过网络通讯管理协议来屏蔽不同集群的cpu架构差异,实现不同cpu架构服务器集群的有效管理。

针对采用多种类型的cpu的服务器构建云平台的场景,会产生管理集群和计算集群的计算能力要求并不均衡,在管理集群上由于需要对整个云平台进行管理往往需要更高的计算能力,而管理集群的计算能力随用户需求的情况而可以略低,从而取得安全性和性能的均衡。因此,在一些实施例中,第一服务器中cpu的性能大于或等于第二服务器中cpu的性能。这样可以解决管理集群和计算集群计算能力需求不均衡的技术问题,降低整体系统的资源成本。

例如,在管理集群上采用具有更高cpu性能的第一服务器,假定cpu类型为x。将多种cpu型号的第二服务器按照cpu的类型a、b、c…划分为不同的计算集群,并在每个计算集群区域上建立计算虚拟化资源池。

在一些实施例中,通过读取各个备选服务器的系统硬件参数,自动识别各个备选服务器中cpu的类型;根据各个备选服务器中cpu的类型和不同类型的cpu的性能,从各个备选服务器选取第一服务器和第二服务器。进一步,根据第二服务器中cpu的类型,将第二服务器或分为不同的计算集群,并在每个计算集群区域上建立计算虚拟化资源池。

在步骤s106中,在管理集群与每个计算集群之间部署管理网络,并在管理集群内的第一服务器之间和每个计算集群内的第二服务器之间部署数据网络。

在管理集群和各个计算集群之间用管理网络进行连接,用于管理集群和各个虚拟化资源池之间进行高速安全通讯。在独立的计算虚拟化资源池内,建立内部数据网络,用于各个虚拟机之间的高速数据通讯。在第一服务器和第二服务器上安装网络程序并进行管理网络配置,使第二服务器能与第一服务器通过管理网络进行统信。在第二服务器上进行数据网络配置,使计算虚拟化资源池内的各个第二服务器之间能通过数据网络进行通信。

各个计算虚拟化资源池之间,根据用户的数据和网络安全要求选择是否进行数据网络连接。当用户需要各个计算虚拟化资源池进行数据隔离时,则不连通各个计算虚拟化资源池的网络。若不要求数据隔离,并且需要进行数据高速通信时,则将各个计算虚拟化资源池的网络进行连通。即在不进行数据隔离的计算集群之间部署数据网络。

在步骤s108中,在管理集群中注册计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。

在管理集群注册后,管理集群可以通过第二服务器的网络地址与其进行通信,并且根据第二服务器所属的计算虚拟化资源池进行后续的调度。

上述实施例中利用多个第一服务器构建云平台中的管理集群,利用多个第二服务器,构建云平台中一个或多个计算集群,并且针对每个计算集群建立独立的计算虚拟化资源池,属于同一个计算虚拟化资源池的第二服务器的cpu的类型相同,属于不同的计算虚拟化资源池的第二服务器的cpu的类型不同。通过管理网络的部署使管理集群与每个计算集群之间能够互相通信,通过数据网络的部署实现计算虚拟化资源池内各个第二服务器之间的数据交互。将第二服务器在管理集群注册,并使管理集群标记每个第二服务器所属的计算虚拟化资源池,从而使管理集群可以对同一计算虚拟化资源池的第二服务器的虚拟机在资源池内进行调度和管理。

上述实施例的方案可以应用于信创技术场景,第一服务器和第二服务器均采用国产cpu,采用管理集群和计算集群分离设计的架构,利用管理集群对计算集群进行统一管理。由于国产cpu可能包括多种类型,对应不同的指令集,在cpu包括多种类型的情况下,通过划分不同计算集群以及建立不同的计算虚拟化资源池,实现对不同cpu的服务上的虚拟机的调度和管理,可以解决不同的cpu类型的服务器上运行的虚拟机的管理问题。此外,上述实施例的方案相对于部署多套管理集群分别对计算集群进行管理的方案,节省资源。

本公开还提供一种高可用分布设计,下面结合图2a和2b进行描述。

在一些实施例中,针对进行数据隔离的各个计算集群,将不同计算集群对应的服务器机架设置在不同故障域内。管理集群对应的服务器机架可以设置在任意故障域内。当各个计算虚拟化资源池之间需要进行网络隔离时,则每个服务器机架上安装相同类型cpu的第二服务器。将具有相同类型的cpu的服务器机架分别分布在各个故障域中。如图2a所示,故障域x的服务器机架上安装具有cpua的第二服务器,故障域y的服务器机架上安装具有cpub的第二服务器,故障域z的服务器机架上安装具有cpuc的第二服务器。这样设计,当一个故障域内断电或出现其他异常情况,不会影响其他计算集群的工作。

在另一些实施例中,针对不进行数据隔离的各个计算集群,每个故障域内的服务器机架上安装属于不同计算集群的第二服务器。管理集群对应的服务器机架可以设置在任意故障域内。当各个计算虚拟化资源池之间不需要进行网络隔离时,则每个故障域的服务器机架上交替安装不同类型的cpu的第二服务器。如图2b所示,故障域x的服务器机架上安装具有cpua、b、c的第二服务器,还可以安装具有cpus的第一服务器,故障域y的服务器机架上安装具有cpua、b、c的第二服务器和具有cpus的第一服务器,故障域z的服务器机架上安装具有cpua、b、c的第二服务器和具有cpus的第一服务器。这样设计,当一个故障域内断电或出现其他异常情况,各个计算集群和管理集群中仍有能够工作的服务器。

为了防止管理集群发生大规模故障导致云平台不可用,本公开还设计管理集群的异构多活的方案,下面结合图3进行描述。

图3为本公开云平台的创建方法另一些实施例的流程图。如图3所示,该实施例的方法包括:步骤s302~s306。

在步骤s302中,利用多个第三服务器,构建云平台中的备用管理集群。

第三服务器中cpu的类型和第一服务器中cpu的类型相同或不同。在一些实施例中,在备用管理集群中的各个第三服务器上配置第三服务器中cpu对应的操作系统,并在实现不同功能的服务器上配置与功能对应的软件。备用管理集群配置的软件与管理集群相同,备用管理集群提供的实现每种功能的资源量与管理集群提供的实现相应功能的资源量的差距小于预设值。

利用第一服务器构建的管理集群作为主管理集群。依照主管理集群的功能和规模,形成具有相当功能和规模的备用管理集群。例如,主管理集群具有控制、存储、网络、容灾、paas功能等功能,则备用管理集群也具有这些功能,并且备用管理集群中实现这些功能的资源量也与主管理集群中实现这些功能的资源量大致相同。例如,备用管理集群的服务器cpu的类型与主管理集群的cpu的类型可以不一致,但cpu的核数总量、内存总量需保持基本相当。

在步骤s304中,在管理集群和备用管理集群之间部署数据网络,在备用管理集群内的第三服务器之间部署数据网络,并在备用管理集群与每个计算集群之间部署管理网络。

对备用管理集群的网络进行配置,确保备用管理集群能够与管理集群和各个计算虚拟化资源池进行互通。

在步骤s306中,在备用管理集群中注册计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。

在一些实施例中,在步骤s304之后还可以包括:在管理集群中共享数据在本集群中存储的情况下,将管理集群上的共享数据同步到备用管理集群;或者,在管理集群中共享数据在本集群之外的预设存储地址存储情况下,在备用管理集群中配置预设存储地址。该步骤可以在步骤s306之前或之后或者并列执行,不分先后顺序。将管理集群中的共享数据同步到备用管理集群,或者,在备用管理集群中配置预设存储地址置,可以在管理集群故障的情况下,使备用管理集群快速获取相关数据。

在一些实施例中,在备用管理集群的配置全部完成之后,可以启动备用管理集群,对备用管理集群的全部功能进行测试验证。测试切换备用管理集群为主管理集群,测试云平台的功能正确性、性能和稳定性。再将将原主管理集群重新切换为主管理集群。

管理集群的异构多活的方案可以在管理集群故障时,启用备用管理集群以确保云平台的运行正常。

在一些实施例中,在管理集群中共享数据在本集群中存储的情况下,管理集群将运行数据实时传输到备用管理集群,备用管理集群实时监测管理集群的运行情况,在管理集群停止工作的情况下,接管管理集群的工作。

例如,在管理集群x和备用管理集群y之间建立高速数据连接,并设置管理集群x为主管理集群,管理集群x在运行时产生的数据可以实时传输到备用管理集群y并进行存储。备用管理集群y可以实时检测管理集群x的运行情况,当检测到管理集群x停止工作时,备用管理集群y接管管理集群x的工作,并对各个计算虚拟化资源池进行统一管理。管理集群x和备用管理集群y可以共享数据存储,当共享数据存储时,管理集群x和备用管理集群y可以采用无状态组件设计,从而确保发生故障时管理集群的快速切换。

在另一些实施例中,在管理集群中共享数据在本集群之外的预设存储地址存储情况下,管理集群将运行数据作为共享数据实时传输到预设存储地址,备用管理集群实时监测管理集群的运行情况,在管理集群停止工作的情况下,从预设存储地址获取共享数据,接管管理集群的工作。

上述实施例中,管理集群运行数据实时传输的功能,备用管理集群监测管理集群,接管管理集群的工作的功能可以在构建管理集群和备用管理集群后分别进行配置。

本公开还提出一种针对服务器故障情况,提高云平台运行的稳定性的方案。在一些实施例中,管理集群监测每个计算虚拟资源池内的第二服务器的运行情况;管理集群确定运行情况异常的第二服务器作为异常服务器;管理集群在标记的异常服务器所属的计算虚拟化资源池内定位另一第二服务器,并将异常服务器上的虚拟机迁移到定位的第二服务器上。

当管理集群检测到计算虚拟化资源池内的第二服务器即将发生硬件故障(运行异常)时,负责根据该第二服务器标记在同一计算虚拟化资源池内定位新的服务器,并将该第二服务器上的虚拟机迁移到新的服务器上。

在另一些实施例中,计算虚拟化资源池中包括:主虚拟机和备用虚拟机,主用虚拟机和备用虚拟机可以分别设置在同一计算虚拟化资源池中不同的第二服务器上。管理集群监测每个计算虚拟资源池内的第二服务器的运行情况;管理集群确定主虚拟机所在的第二服务器故障的情况下,将主虚拟机切换为备用虚拟机,在标记的主虚拟机所属的计算虚拟化资源池内定位另一第二服务器,并在定位的第二服务器上创建新的备用虚拟机。

当管理集群未能及时迁移虚拟机而发生服务器故障时,基于虚拟机的主备设计,切换备用虚拟机为主虚拟机,并在同一计算虚拟资源池内查找新的第二服务器并创建新的备用虚拟机。

管理集群监测第二服务器以及进行备用虚拟机切换和迁移的功能可以在管理集群创建后进行相应的配置,以使管理集群实现上述功能。

本公开的云平台还可以实现横向的弹性扩展,下面结合图4进行描述。

图4为本公开云平台的创建方法又一些实施例的流程图。如图4所示,该实施例的方法包括:步骤s402~s410。

在步骤s402中,识别待添加服务器的cpu的类型。

可以通过读取待添加服务器的系统硬件参数,自动识别待添加服务器中cpu的类型。

在步骤s404中,将待添加服务器添加至具有相同类型的cpu的计算集群中。

在步骤s406中,在待添加服务器与管理集群之间配置管理网络,并在待添加服务器与所属的计算集群内的服务器之间配置数据网络。

在步骤s408中,将待添加服务器上的虚拟机加入所属的计算集群对应的计算虚拟化资源池中。

在一些实施例中,在待添加服务器上配置cpu对应的操作系统,虚拟化管理软件以及云平台驻留程序软件,其中,云平台驻留程序软件用于与管理集群进行通信,根据管理集群的指令执行相应的操作,虚拟化管理软件用于进行虚拟化。

在步骤s410中,在管理集群中注册待添加服务器的网络地址,并标记待添加服务器所属的计算虚拟化资源池。

如果配置了备用管理集群,在备用管理集群中注册待添加服务器的网络地址,并标记待添加服务器所属的计算虚拟化资源池。

基于云平台的横向可扩展的高可用架构设计,可以在原有计算虚拟化资源池集群上增加同类型cpu的服务器。在待添加服务器安装虚拟化管理软件,云平台管理驻留软件,并配置服务器的网络连接。逐一在管理集群上注册待添加服务器,将待添加服务器进行标记,并将待添加服务器加入原有的计算虚拟化资源池中。

本公开中创建的云平台包括管理集群和一个或多个计算集群,计算集群上构建计算虚拟化资源池分别对应不同的cpu服务器。这种多芯独立管理的计算虚拟化资源池的设计方案,结合高效调度管理机制,可以实现一个集中化云平台,统一管理多芯异构的服务器集群,解决管理节点和计算节点计算能力需求不均衡的技术问题,降低整体系统的资源成本。本公开还提出管理集群的异构多活设计,保障在主管理集群因故障、设备报废、cpu断供等原因造成的管理集群不可用时,云平台通过备用管理集群依旧可以正常提供平台服务。本公开还设计两种组织服务器集群的方案包括:同芯单机架方案(不同计算集群对应的服务器机架设置在不同故障域内)和同芯多机架方案(每个故障域内的服务器机架上安装属于不同计算集群的第二服务器)。

本公开还提供一种云平台的创建装置,下面结合图5进行描述。

图5为本公开云平台的创建装置的一些实施例的结构图。如图5所示,该实施例的装置50包括:管理集群构建模块510,计算集群构建模块520,网络配置模块530,注册模块540。

管理集群构建模块510用于利用多个第一服务器,构建云平台中的管理集群。

在一些实施例中,管理集群构建模块510用于在管理集群中的各个第一服务器上配置第一服务器中cpu对应的操作系统,并在实现不同功能的第一服务器上配置与功能对应的软件。

计算集群构建模块520用于利用多个第二服务器,构建云平台中一个或多个计算集群,并在每个计算集群区域上建立独立的计算虚拟化资源池,其中,每个计算集群内第二服务器的cpu的类型相同,不同计算集群的第二服务器的cpu的类型不同。

在一些实施例中,第一服务器中cpu的性能大于或等于第二服务器中cpu的性能。

在一些实施例中,计算集群构建模块520用于针对每个计算集群,在该计算集群内的各个第二服务器上配置第二服务器中cpu对应的操作系统,虚拟化管理软件以及云平台驻留程序软件,其中,云平台驻留程序软件用于与管理集群进行通信,根据管理集群的指令执行相应的操作,虚拟化管理软件用于进行虚拟化。

网络配置模块530用于在管理集群与每个计算集群之间部署管理网络,并在管理集群内的第一服务器之间和每个计算集群内的第二服务器之间部署数据网络。

在一些实施例中,网络配置模块530用于在不进行数据隔离的计算集群之间部署数据网络。

注册模块540用于在管理集群中注册计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。

在一些实施例中,该装置50还包括:识别模块550,用于通过读取各个备选服务器的系统硬件参数,自动识别各个备选服务器中cpu的类型;根据各个备选服务器中cpu的类型和不同类型的cpu的性能,从各个备选服务器选取第一服务器和第二服务器。

在一些实施例中,该装置50还包括:故障域管理模块560,用于针对进行数据隔离的各个计算集群,将不同计算集群对应的服务器机架设置在不同故障域内;或者,针对不进行数据隔离的各个计算集群,每个故障域内的服务器机架上安装属于不同计算集群的第二服务器。

在一些实施例中,该装置50还包括:备用管理集群构建模块570,用于利用多个第三服务器,构建云平台中的备用管理集群;网络配置模块530还用于在管理集群和备用管理集群之间部署数据网络,在备用管理集群内的第三服务器之间部署数据网络,并在备用管理集群与每个计算集群之间部署管理网络;注册模块540还用于在备用管理集群中注册计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。

在一些实施例中,备用管理集群构建模块570用于在备用管理集群中的各个第三服务器上配置第三服务器中cpu对应的操作系统,并在实现不同功能的服务器上配置与功能对应的软件;其中,备用管理集群配置的软件与管理集群相同,备用管理集群提供的实现每种功能的资源量与管理集群提供的实现相应功能的资源量的差距小于预设值。

在一些实施例中,识别模块550还用于识别待添加服务器的cpu的类型;计算集群构建模块520还用于将待添加服务器添加至具有相同类型的cpu的计算集群中,将待添加服务器上的虚拟机加入所属的计算集群对应的计算虚拟化资源池中;网络配置模块530还用于在待添加服务器与管理集群之间配置管理网络,并在待添加服务器与所属的计算集群内的第二服务器之间配置数据网络;注册模块540还用于在管理集群中注册待添加服务器的网络地址,并标记待添加服务器所属的计算虚拟化资源池。

在一些实施例中,计算集群构建模块520用于在待添加服务器上配置cpu对应的操作系统,虚拟化管理软件以及云平台驻留程序软件,其中,云平台驻留程序软件用于与管理集群进行通信,根据管理集群的指令执行相应的操作,虚拟化管理软件用于进行虚拟化。

本公开的实施例中的云平台的创建装置可各由各种计算设备或计算机系统来实现,下面结合图6以及图7进行描述。本公开的第一服务、第二服务器和第三服务器均可以由各种计算设备或计算机系统来实现,可以参考图6和图7的描述,不再赘述。

图6为本公开云平台的创建装置的一些实施例的结构图。如图6所示,该实施例的装置60包括:存储器610以及耦接至该存储器610的处理器620,处理器620被配置为基于存储在存储器610中的指令,执行本公开中任意一些实施例中的云平台的创建方法。

其中,存储器610例如可以包括系统存储器、固定非易失性存储介质等。系统存储器例如存储有操作系统、应用程序、引导装载程序(bootloader)、数据库以及其他程序等。

图7为本公开云平台的创建装置的另一些实施例的结构图。如图7所示,该实施例的装置70包括:存储器710以及处理器720,分别与存储器610以及处理器620类似。还可以包括输入输出接口730、网络接口740、存储接口750等。这些接口730,740,750以及存储器710和处理器720之间例如可以通过总线760连接。其中,输入输出接口730为显示器、鼠标、键盘、触摸屏等输入输出设备提供连接接口。网络接口740为各种联网设备提供连接接口,例如可以连接到数据库服务器或者云端存储服务器等。存储接口750为sd卡、u盘等外置存储设备提供连接接口。

本公开还提供一种云平台,可以采用前述实施例的云平台的创建方法和创建装置进行创建。下面结合图8进行描述。

图8为本公开云平台的一些实施例的结构图。如图8所示,该实施例的云平台80包括:包括多个第一服务器811的管理集群810以及包括多个第二服务器822的一个或多个计算集群820。

每个计算集群820区域上建立独立的计算虚拟化资源池,其中,每个计算集群820内第二服务器822的cpu的类型相同,不同计算集群820的第二服务器821的cpu的类型不同。

管理集群810和每个计算集群820之间通过管理网络连接,管理集群810内的第一服务器811之间和每个计算集群820内的第二服务器821之间通过数据网络连接。管理集群810用于登记计算集群820中每个第二服务器821的网络地址,并标记每个第二服务器821所属的计算虚拟化资源池。

在一些实施例中,第一服务器811中cpu的性能大于或等于第二服务器821中cpu的性能。

在一些实施例中,不进行数据隔离的计算集群820之间通过数据网络连接。

在一些实施例中,针对进行数据隔离的各个计算集群820,不同计算集群820对应的服务器机架设置在不同故障域内;或者,针对不进行数据隔离的各个计算集群820,每个故障域内的服务器机架上安装属于不同计算集群的第二服务器821。

在一些实施例中,云平台80还包括:包括多个第三服务器831的备用管理集群830;其中,备用管理集群830和管理集群810之间通过数据网络连接,备用管理集群830内的第三服务器831之间通过数据网络连接,备用管理集群830与每个计算集群820之间通过管理网络连接;备用管理集群830用于登记计算集群820中每个第二服务器821的网络地址,并标记每个第二服务器821所属的计算虚拟化资源池。

在一些实施例中,在管理集群810中共享数据在本集群中存储的情况下,管理集群810用于将运行数据实时传输到备用管理集群830;备用管理集群830用于实时监测管理集群810的运行情况,在管理集群810停止工作的情况下,接管管理集群810的工作;或者,在管理集群810中共享数据在本集群之外的预设存储地址存储情况下,管理集群810用于将运行数据作为共享数据实时传输到预设存储地址,备用管理集群830用于实时监测管理集群810的运行情况,在管理集群810停止工作的情况下,从预设存储地址获取共享数据,接管管理集群810的工作。

在一些实施例中,管理集群810用于监测每个计算虚拟资源池内的第二服务器821的运行情况;确定运行情况异常的第二服务器821作为异常服务器;在标记的异常服务器所属的计算虚拟化资源池内定位另一第二服务器821,并将异常服务器上的虚拟机迁移到定位的第二服务器821上。

在一些实施例中,计算虚拟化资源池中包括:主虚拟机和备用虚拟机;管理集群810用于监测每个计算虚拟资源池内的第二服务器821的运行情况;确定主虚拟机所在的第二服务器821故障的情况下,将主虚拟机切换为备用虚拟机,在标记的主虚拟机所属的计算虚拟化资源池内定位另一第二服务器821,并在定位的第二服务器821上创建新的备用虚拟机。

本公开还提供一种云平台实现系统,下面结合图9进行描述。

图9为本公开云平台实现系统的一些实施例的结构图。如图9所示,该实施例的系统9包括:前述任意实施例的云平台80,以及云平台的创建装置50/60/70。

本领域内的技术人员应当明白,本公开的实施例可提供为方法、系统、或计算机程序产品。因此,本公开可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用非瞬时性存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。

本公开是参照根据本公开实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解为可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

以上所述仅为本公开的较佳实施例,并不用以限制本公开,凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1