数据中心间的业务流量控制方法、装置及系统与流程

文档序号:11180351阅读:361来源:国知局
数据中心间的业务流量控制方法、装置及系统与流程

本发明涉及负载均衡技术领域,具体而言,涉及一种数据中心间的业务流量控制方法、装置及系统。



背景技术:

当今计算机技术已经进入以网络为中心的时代。互联网的告诉发展,用户数量及网络流量的迅速增长使得越来越多服务器显得负担沉重,对网络服务器的可扩展性和可用性提出了更高的要求。为了解决这个问题,互联网数据中心(idc)应运而生。

互联网数据中心是基于网络,是互联网网络基础资源的一部分,提供了一种高端的数据传输服务和高速接入服务,不仅提供快速安全的网路,还提供对服务器监管、流量监控等网络管理方案的服务。

虽然idc中的互联网服务集群本身,已经实现了各种冗余,包括电力、网络、服务器等。单集群可以防止“单路电力故障”、“单边网络故障”、“服务硬件故障”、“系统意外宕机”甚至“整(一)个机柜突然掉电、突然断网、突然宕机”等故障对用户对外服务造成的影响。但是更大范围的故障,比如整个数据中心不可用,已经不能从idc中的互联网服务内部冗余来解决。

针对现有技术中在数据中心故障、不可用时,互联网数据中心中的互联网服务中断的技术问题,目前尚未提出有效的解决方案。



技术实现要素:

本发明实施例提供了一种数据中心间的业务流量控制方法、装置及系统,以至少解决现有技术中在数据中心故障、不可用时,互联网数据中心中的互联网服务中断的技术问题。

根据本发明实施例的一个方面,提供了一种数据中心间的业务流量控制方法,包括:具有互备关系的主数据中心和备数据中心,主数据中心和备数据中心分别部署了至少一个负载均衡设备,其中,在主数据中心切换至备数据中心的情况下,将传输至主数据中心的业务流量引导至备数据中心,由备数据中心的负载均衡设备对业务流量 进行分配。

根据本发明实施例的另一方面,还提供了一种数据中心间的业务流量控制系统,包括:主数据中心,部署至少一个负载均衡设备,用于接收并转发业务流量;备数据中心,与主数据中心具有互备关系,并部署了至少一个负载均衡设备,其中,在主数据中心切换至备数据中心的情况下,将业务流量引导至备数据中心,并由备数据中心的负载均衡设备对业务流量进行分配。

根据本发明实施例的另一方面,还提供了一种数据中心间的业务流量控制装置,包括:控制模块,用于在主数据中心切换至备数据中心的情况下,将传输至主数据中心的业务流量引导至备数据中心,并由备数据中心的负载均衡设备对业务流量进行分配,其中,主数据中心和备数据中心具有互备关系,主数据中心和备数据中心分别部署至少一个负载均衡设备。

在本发明实施例中,主数据中心和备数据中心具有互备关系,主数据中心和备数据中心分别部署了至少一个负载均衡设备,在主数据中心切换至备数据中心的情况下,本方案可以将传输至主数据中心的业务流量引导至备数据中心,由备数据中心的负载均衡设备对业务流量进行分配,实现业务流量迁移。

容易注意到,主数据中心和备数据中心具有互备关系,主数据中心的数据可以实时同步到备数据中心,当主数据中心发生故障、不可用时,可以将主数据中心切换为备数据中心,由备数据中心的负载均衡设备进行流量分配。因此,通过本申请实施例所提供的方案,可以实现一旦数据中心(例如,主数据中心)发生灾难性故障,业务流量可以迅速迁移至另一数据中心(例如,备数据中心),在另一数据中心短时间内恢复服务功能,从而减少用户等待相应时间,增强网络数据处理能力,提高网络的灵活性和可用性。

由此,本发明提供的方案解决了现有技术中在数据中心故障、不可用时,互联网数据中心中的互联网服务中断的技术问题。

附图说明

此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:

图1是根据本申请实施例一的一种数据中心间的业务流量控制方法的计算机终端的硬件结构框图;

图2是根据本申请实施例一的一种数据中心间的业务流量控制方法的流程图;

图3是根据本申请实施例一的数据中心间的业务流量引导的示意图;

图4是根据本申请实施例一的四层负载均衡部署方式的示意图;

图5是根据本申请实施例一的七层负载均衡部署方式的示意图;

图6是根据本申请实施例一的一种可选的数据中心间的业务流量控制方法的交互图;

图7是根据本申请实施例二的一种数据中心间的业务流量控制装置的示意图;

图8是根据本申请实施例二的一种可选的数据中心间的业务流量控制装置的示意图;

图9是根据本申请实施例二的一种可选的数据中心间的业务流量控制装置的示意图;

图10是根据本申请实施例二的一种可选的数据中心间的业务流量控制装置的示意图;

图11是根据本申请实施例二的一种可选的数据中心间的业务流量控制装置的示意图;

图12是根据本申请实施例三的一种数据中心间的业务流量控制系统的示意图;

图13是根据本申请实施例三的一种可选的数据中心间的业务流量控制系统的示意图;

图14是根据本申请实施例三的一种可选的数据中心间的业务流量控制系统的示意图;

图15是根据本申请实施例三的一种可选的数据中心间的业务流量控制系统的示意图;

图16是根据本申请实施例三的一种可选的数据中心间的业务流量控制系统的示意图;以及

图17是根据本申请实施例四的一种计算机终端的结构框图。

具体实施方式

为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的 附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。

需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。

首先,在对本申请实施例进行描述的过程中出现的部分名词或术语适用于如下解释:

idc:互联网数据中心,internetdatacenter的简写,是电信部门利用已有的互联网通信链路、带宽资源,建立标准化的电信专业级机房环境,为企业、政府提供服务器托管、租用以及相关增值等方面的全方位服务。

slb:服务器负载均衡,serverloadbalance的简写,通过设置虚拟服务地址(ip),将位于同一地域(region)的多台云服务器(elasticcomputeservice,简称ecs)资源虚拟成一个高性能、高可用的应用服务池;再根据应用指定的方式,将来自客户端的网络请求分发到云服务器池中。

bgp:边界网关协议,bordergatewayprotocol的简写,用于在不同的自治系统(as)之间交换路由信息。当两个as需要交换路由信息时,每个as都必须指定一个运行bgp的节点,来代表as与其他的as交换路由信息。

业务迁移:是指业务从一个物理dc迁移到异地的另一物理dc中,迁移过程中,整个业务的所有资源一起迁移。

url:统一资源定位符,uniformresourcelocator的简写,是对可以从互联网上得到的资源的位置和访问方法的一种简洁的表示,是互联网上标准资源的地址。

lvs:四层负载均衡开源软件,一种实现在linux平台下的负载均衡软件。ospf协议运行于lvs和上联交换机之间,上联交换机通过ecmp等价路由,将数据流分发给lvs集群,lvs集群再转发给业务服务器。

实施例1

根据本申请实施例,提供了一种数据中心间的业务流量控制方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。

本申请实施例一所提供的方法实施例可以在移动终端、计算机终端或者类似的运算装置中执行。以运行在计算机终端上为例,图1是根据本申请实施例一的一种数据中心间的业务流量控制方法的计算机终端的硬件结构框图。如图1所示,计算机终端10可以包括一个或多个(图中仅示出一个)处理器102(处理器102可以包括但不限于微处理器mcu或可编程逻辑器件fpga等的处理装置)、用于存储数据的存储器104、以及用于通信功能的传输模块106。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,计算机终端10还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。

存储器104可用于存储应用软件的软件程序以及模块,如本申请实施例中的数据中心间的业务流量控制方法对应的程序指令/模块,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的数据中心间的业务流量控制方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。

传输装置106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端10的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器(networkinterfacecontroller,nic),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(radiofrequency,rf)模块,其用于通过无线方式与互联网进行通讯。

在上述运行环境下,本申请提供了如图2所示的数据中心间的业务流量控制方法。图2是根据本申请实施例一的一种数据中心间的业务流量控制方法的流程图,如图2所示的方法可以包括如下步骤:

步骤s22,具有互备关系的主数据中心和备数据中心,主数据中心和备数据中心分别部署了至少一个负载均衡设备,其中,在主数据中心切换至备数据中心的情况下, 将传输至主数据中心的业务流量引导至备数据中心,由备数据中心的负载均衡设备对业务流量进行分配。

具体的,上述步骤中的主数据中心和备数据中心可以是同一地域(region)下的两个数据中心(idc机房),可以将数据中心集群中优先级高的数据中心设置为主数据中心,优先级低的数据中心设置为备数据中心。在主数据中心切换为备数据中心之后,可以将主数据中心的数据迁移到备份数据中心,主数据中心的存储设备与备数据中心的存储设备进行通信,将主数据中心的存储设备中的数据实时同步到备数据中心的存储设备,备数据中心根据业务服务器的网络信息、网络设备配置信息和业务服务器信息创建相应的业务网络和业务服务器;将传输至主数据中心的业务流量引导至备数据中心,具体方法为,主数据中心的负载均衡设备可以将用户发送的业务流量进行地址和端口转换,将用户发送的业务流量发送至备数据中心的负载均衡设备;负载均衡设备可以根据负载均衡算法,将业务流量转发至目标服务器。

图3是根据本申请实施例一的数据中心间的业务流量引导的示意图,例如,以如图3所示的应用场景为例,对本申请上述实施例进行详细说明。在阿里云idc(alyidc)中的互联网服务,可以将同一地域下idc中的互联网服务的ip地址以不同的“优先级”同时在两个机房宣告(bgp路由发布),如图3所示,站点a的slb路由器的bgp路由宣告为:x.y.z.0/24,站点b的slb路由器的bgp路由宣告为:x.y.z.0/25,x.y.z.128/25,优先级高的数据中心为主数据中心(可以是图3中站点a的slb路由器)优先级低的数据中心为备数据中心(可以是图3中站点b的slb路由器),主数据中心和备数据中心实现了互备的关系。正常情况下1/2的vip高优先级的运行在不同的两个idc下,在主数据中心切换至备数据中心的情况下,可以将传输至主数据中心的业务流量引导至备数据中心,备数据中心的负载均衡设备对接收到的业务流量进行分配,通过负载均衡算法将业务流量分配至相应的业务服务器。

本申请上述实施例一公开的方案中,主数据中心和备数据中心具有互备关系,主数据中心和备数据中心分别部署了至少一个负载均衡设备,在主数据中心切换至备数据中心的情况下,本方案可以将传输至主数据中心的业务流量引导至备数据中心,由备数据中心的负载均衡设备对业务流量进行分配,实现业务流量迁移。

容易注意到,主数据中心和备数据中心具有互备关系,主数据中心的数据可以实时同步到备数据中心,当主数据中心发生故障、不可用时,可以将主数据中心切换为备数据中心,由备数据中心的负载均衡设备进行流量分配。因此,通过本申请实施例所提供的方案,可以实现一旦数据中心(例如,主数据中心)发生灾难性故障,业务流量可以迅速迁移至另一数据中心(例如,备数据中心),在另一数据中心短时间内恢 复服务功能,从而减少用户等待相应时间,增强网络数据处理能力,提高网络的灵活性和可用性。

由此,本申请提供的上述实施例一的方案解决了现有技术中在数据中心故障、不可用时,互联网数据中心中的互联网服务中断的技术问题。

在本申请上述实施例中,上述方法还可以如下步骤:步骤s24,通过中间路由器来监测主数据中心,如果监测到主数据中心处于不可用状态,则将主数据中心切换为备数据中心。

具体的,上述不可用状态至少包括如下任意一种状态:断电状态、故障状态、入侵状态和溢出状态。

在一种可选的方案中,当中间路由器检测到主数据中心不可用时,可以下发数据中心切换指令,主数据中心的存储设备在接收到数据中心切换指令之后,可以将自身的优先级调低,备数据中心的存储设备在接收到数据中心切换指令之后,可以将自身的优先级挑高,从而实现将主数据中心切换为备数据中心。

例如,仍以如图3所示的应用场景为例,对本申请上述实施例进行详细说明。在alyidc中的互联网服务,平时“优先级高”的数据中心(可以是图3中站点a的slb路由器)为客户提供服务,一旦该数据中心不可用,边界路由协议bgp会很快(最差的情况180秒内,正常情况下30秒内)收敛,此时,“低优先级”的数据中心就会代替故障的(高优先级)数据中心,继续为用户服务。当单个数据中心发生不可用时,例如,当主数据中心发生不可用或者故障时,可以进行故障迁移,将主数据中心的数据备份到备数据中心,并将主数据中心切换为备数据中心,由备数据中心进行业务流量分配。

通过上述步骤s24提供的方案,在主数据中心不可用时,将主数据中心切换为备数据中心,从而实现在主数据中心故障、不可用时,切换为备数据中心,由备数据中心为用户提供服务。

在本申请上述实施例中,在步骤s24,主数据中心切换至备数据中心之前,上述方法还可以包括如下步骤:步骤s26,主数据中心与备数据中心实时同步数据。

具体的,主数据中心和备数据中心具有互备的关系,主数据中心的数据可以实时地备份到备数据中心,使得当主数据中心(或者备数据中心)出现故障时,备数据中心(或者主数据中心)可以在短时间内将应用接管过来,从而保证了应用的持续性。

在一种可选的方案中,为了保证在主数据中心切换至备数据中心之后,备数据中 心的负载均衡设备可以对传输至主数据中心的流量进行分配,因此,需要保证主数据中心与备数据中心的数据同步,可以将主数据中心的存储设备与备数据中心的存储设备进行通信,实时同步主数据中心与备数据中心的数据,保证两个数据中心的数据同步。

例如,仍以如图3所示的应用场景为例,对本申请上述实施例进行详细说明。主数据中心(可以是图3中站点a的slb路由器)和备数据中心(可以是图3中站点b的slb路由器)可以进行通信,实时同步两个存储设备中的数据,并可以在将主数据中心切换为备数据中心的情况下,将主数据中心的数据备份到备数据中心,保证备数据中心的数据与主数据中心的数据同步。

通过上述步骤s26提供的方案,主数据中心与备数据中心可以实时同步数据,从而实现在将主数据中心切换为备数据中心之后,备数据中心的负载均衡设备可以对传输至主数据中心的业务流量进行分配,保证用户业务服务的可用性。

在本申请上述实施例中,负载均衡设备可以包括如下任意一种或多种类型:三层负载均衡设备、四层负载均衡设备、五层负载均衡设备、六层负载均衡设备和七层负载均衡设备。

具体的,上述步骤中的三层负载均衡设备基于ip地址,可以通过一个虚拟ip地址接收请求,然后分配到真实的ip地址;四层负载均衡设备基于ip地址和端口,可以通过虚拟ip地质和端口接收请求,然后在分配到真实的服务器;七层负载均衡设备基于url等应用层信息,可以通过虚拟的url地质或主机名接收请求,然后在分配到真实的服务器。

在一种可选的方案中,四层负载均衡设备可以通过发布三层的ip地址(vip),然后加四层的端口号,来确定需要进行负载均衡处理的流量,将需要进行负载均衡处理的流量转发至后台服务器,并保存转发后的后台服务器的标识信息,从而确保后续的所有流量都由同一台服务器处理。

在另一种可选的方案中,七层负载均衡设备可以在四层负载均衡设备的基础上,增加应用层的特征,例如,url地址,http协议或cookie等信息,来确定需要进行负载均衡处理的流量。

在本申请上述实施例中,在负载均衡设备包括四层负载均衡设备的情况下,步骤s22,由备数据中心的负载均衡设备对业务流量进行分配可以包括如下步骤:

步骤s222,备数据中心的四层负载均衡设备根据调度策略来选择目标服务器。

步骤s224,四层负载均衡设备将业务流量通过lvs集群分配给目标服务器。

具体的,上述步骤中的调度策略可以包括轮询方式、url调度策略、url哈希调度策略或一致性哈希调度策略,但不仅限于此。四层负载均衡设备可以通过ecmp等价路由,将数据流量发送给lvs集群,再由lvs集群转发给目标服务器。

在一种可选的方案中,四层负载均衡设备与多个服务器连接,在接收到第一网络的用户发送的请求报文之后,可以将请求报文进行地址(包括源地址和目标地址)和端口转换,生成第二网络的请求报文,并采用调度策略从多个服务器中确定目标服务器,由lvs集群将第二网络的请求报文发送给相应的目标服务器。目标服务器可以利用源地址映射方式将返回的第二网络的响应报文返回至四层负载均衡设备,四层负载均衡设备在接收到第二网络的响应报文之后,对第二网络的响应报文进行地址和端口转换,生成第一网络的响应报文,并将第一网络的响应报文返回至用户。

此处需要说明的是,第一网络的请求报文和第一网络的响应报文属于同一个网络类型的报文,第二网络的请求报文和第二网络的响应报文属于同一个网络类型的报文。

图4是根据本申请实施例一的四层负载均衡部署方式的示意图,例如,以如图4所示的应用场景为例,对本申请上述实施例进行详细说明。对于slb公有云4层用户,4层区域中,虚拟机vm代表对应用户实例。数据中心的slb可以通过健康检查来引导业务流量。常态下,一个监听的流量只通过一个数据中心转发。在将主数据中心(可以是图4中的站点a)切换为备数据中心(可以是图4中的站点b)的情况下,备数据中心的四层负载均衡设备根据调度策略来选择目标服务器,并将业务流量通过lvs集群分配给目标服务器。

通过上述步骤s222至步骤s224提供的方案,负载均衡设备可以通过调度策略确定目标服务器,并通过lvs集群分配给目标服务器,从而保证用户服务的可用性,提高了负载均衡服务的稳定性。

在本申请上述实施例中,调度策略包括:通过检查多个后端业务服务器中的在线状态或资源使用率来确定目标服务器,其中,通过备数据中心的控制服务器来配置调度策略,在任意一个数据中心允许访问每个后端业务群的情况下,lvs集群在多个后端业务服务器中转发业务流量时会产生交叉流。

在一种可选的方案中,为了使一台处理服务请求较少的服务器能分配到更多的服务请求,或者出现故障的服务器将不再接受服务请求直至故障恢复,可以通过检查多个后端业务服务器的在线状态确定业务服务器中是否存在出现故障的服务器,并通过检查多个后端业务服务器的资源使用率确定每个业务服务器处理的服务请求的数量, 确定最优的目标服务器。

例如,仍以如图4所示的应用场景为例,对本申请上述实施例进行详细说明。对于slb公有云4层用户,4层区域中,虚拟机vm可以代表对应用户实例,其所有实例对所有数据中心都可见,因此,lvs集群在转发业务流量时会出现流量交叉。

通过上述方案,可以通过检查多个后端业务服务器中的在线状态或资源使用率来确定目标服务器,从而使多个后端业务服务器能很好的共同完成任务,消除或避免现有网络负载分布不均、数据流量拥挤反应时间长的瓶颈。

在本申请上述实施例中,在负载均衡设备包括七层负载均衡设备的情况下,步骤s22,由备数据中心的负载均衡设备对业务流量进行分配可以包括如下步骤:

步骤s226,备数据中心的七层负载均衡设备根据调度策略来选择目标服务器。

步骤s228,七层负载均衡设备将业务流量通过lvs集群分配给目标服务器。

具体的,上述步骤中的调度策略可以与四层负载均衡设备的调度策略相同,也可以不同。七层负载均衡设备可以通过ecmp等价路由,将数据流量发送给lvs集群,再由lvs集群转发给目标服务器。

在一种可选的方案中,七层负载均衡设备与多个服务器连接,在接收到第一网络的用户发送的请求报文之后,可以通过代理服务器和客户端建立连接,接受到客户端发送的真正应用层内容的报文,然后根据该报文中的特定字段(例如http报文的报头),再根据调度策略,确定目标服务器。

此处需要说明的是,负载均衡设备在这种情况下,更类似于一个代理服务器。负载均衡和前端的客户端以及后端的服务器会分别建立tcp连接。因此,七层负载均衡设备的要求更高,处理能力低于四层负载均衡设备。

图5是根据本申请实施例一的七层负载均衡部署方式的示意图,例如,以如图5所示的应用场景为例,对本申请上述实施例进行详细说明。对于slb公有云7层用户,4层区域中,代理服务器proxy代表slb的proxy组件。数据中心的slb可以通过健康检查来引导业务流量。常态下,一个监听的流量只通过一个数据中心转发。在将主数据中心(可以是图5中的站点a)切换为备数据中心(可以是图5中的站点b)的情况下,备数据中心的七层负载均衡设备根据调度策略来选择目标服务器,并将业务流量通过lvs集群分配给目标服务器。

通过上述步骤s226至步骤s228提供的方案,负载均衡设备可以通过调度策略确定目标服务器,并通过lvs集群分配给目标服务器,从而保证用户服务的可用性,避 免应用层故障,提高了负载均衡服务的稳定性。

在本申请上述实施例中,调度策略包括:通过检查多个后端业务服务器中的在线状态或资源使用率来确定目标服务器,其中,通过备数据中心的控制服务器来配置调度策略,在多个后端业务群仅允许当前的备数据中心访问的情况下,lvs集群中分配给每个lvs的至少一个具有连接关系的后端业务服务器均不相同,使得多个后端业务服务器中转发业务流量时不会产生交叉流。

在一种可选的方案中,为了使一台处理服务请求较少的服务器能分配到更多的服务请求,或者出现故障的服务器将不再接受服务请求直至故障恢复,可以通过检查多个后端业务服务器的在线状态确定业务服务器中是否存在出现故障的服务器,并通过检查多个后端业务服务器的资源使用率确定每个业务服务器处理的服务请求的数量,确定最优的目标服务器。

例如,仍以如图5所示的应用场景为例,对本申请上述实施例进行详细说明。对于slb公有云7层用户,4层区域中,代理服务器proxy代表slb的proxy组件,其所有实例对所有数据中心都可见,因此,lvs集群在转发业务流量时会出现流量交叉,数据中心中的proxy组件只对本数据中心的slb可见。避免7层用户流量在l4区域中交叉,增加不必要的延时。

通过上述方案,可以通过检查多个后端业务服务器中的在线状态或资源使用率来确定目标服务器,从而使多个后端业务服务器能很好的共同完成任务,消除或避免现有网络负载分布不均、数据流量拥挤反应时间长的瓶颈。

在本申请上述实施例中,备数据中心的控制服务器来配置当前数据中心所对应的rds数据库,在rds数据库仅允许当前的备数据中心访问的情况下,使得rds数据库存储业务流量时不会产生交叉流。

例如,以如图5所示的应用场景为例,对本申请上述实施例进行详细说明。对于rds用户,4层区域中,虚拟机vm代表rds数据库。rds对延时敏感,因此在配置中,指定其数据库所在的数据中心id,由slb配置系统保证其只对本数据中心的slb可见,避免流量交叉,减少不必要的延时。

下面结合图3,图4,图5和图6详细介绍本申请的一种优选实施例。

如6所示,以为应用场景,提供了一种可选的数据中心间的业务流量控制方法,该方法可以包括如下步骤s61至步骤s64:

步骤s61,主数据中心121与备数据中心123实时同步数据。

可选的,主数据中心和备数据中心可以具有互备关系,主数据中心的数据可以实时备份到备数据中心中。

步骤s62,中间路由器131监测主数据据中心121的状态,当监测到主数据中心处于不可用状态,将主数据中心切换为备数据中心。

可选的,当中间路由器检测到主数据中心处于断电状态、故障状态、入侵状态或者溢出状态时,确定主数据中心处于不可用状态,将主数据中心的优先级调低,备数据中心的优先级挑高,从而将主数据中心切换为备数据中心。

步骤s63,中间路由器131将传输至主数据中心的业务流量引导至备数据中心123。

可选的,主数据中心的负载均衡设备可以将用户发送的业务流量进行地址和端口转换,将用户发送的业务流量发送至备数据中心的负载均衡设备。

步骤s64,备数据中心123的负载均衡设备对业务流量进行分配。

可选的,负载均衡设备可以为:三层负载均衡设备、四层负载均衡设备、五层负载均衡设备、六层负载均衡设备和七层负载均衡设备。负载均衡设备可以根据调度策略选择目标服务器,并将业务流量通过lvs集群分配给目标服务器。

通过上述方案,主数据中心与备数据中心可以实时同步数据,当监测到主数据中心处于不可用状态,将主数据中心切换为备数据中心,并将传输至主数据中心的业务流量引导至备数据中心,由备数据中心的负载均衡设备对业务流量进行分配,从而实现当整个数据中心故障、不可用时,idc中的互联网服务仍然有能力在较短的时间内恢复服务。

需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。

通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的数据中心间的业务流量控制方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如rom/ram、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执 行本申请各个实施例所述的方法。

实施例2

根据本申请实施例,还提供了一种用于数据中心间的业务流量控制方法的数据中心间的业务流量控制装置,如图7所示,该装置包括:控制模块71。

其中,控制模块71用于在主数据中心切换至备数据中心的情况下,将传输至主数据中心的业务流量引导至备数据中心,并由备数据中心的负载均衡设备对业务流量进行分配,其中,主数据中心和备数据中心具有互备关系,主数据中心和备数据中心分别部署了至少一个负载均衡设备。

具体的,上述步骤中的主数据中心和备数据中心可以是同一地域(region)下的两个数据中心(idc机房),可以将数据中心集群中优先级高的数据中心设置为主数据中心,优先级低的数据中心设置为备数据中心。在主数据中心切换为备数据中心之后,可以将主数据中心的数据迁移到备份数据中心,主数据中心的存储设备与备数据中心的存储设备进行通信,将主数据中心的存储设备中的数据实时同步到备数据中心的存储设备,备数据中心根据业务服务器的网络信息、网络设备配置信息和业务服务器信息创建相应的业务网络和业务服务器;将传输至主数据中心的业务流量引导至备数据中心,具体方法为,主数据中心的负载均衡设备可以将用户发送的业务流量进行地址和端口转换,将用户发送的业务流量发送至备数据中心的负载均衡设备;负载均衡设备可以根据负载均衡算法,将业务流量转发至目标服务器。

此处需要说明的是,上述控制模块71对应于实施例1中的步骤s22,该模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例二所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。

本申请上述实施例2公开的方案中,主数据中心和备数据中心具有互备关系,主数据中心和备数据中心分别部署了至少一个负载均衡设备,在主数据中心切换至备数据中心的情况下,本方案可以将传输至主数据中心的业务流量引导至备数据中心,由备数据中心的负载均衡设备对业务流量进行分配,实现业务流量迁移。

容易注意到,主数据中心和备数据中心具有互备关系,主数据中心的数据可以实时同步到备数据中心,当主数据中心发生故障、不可用时,可以将主数据中心切换为备数据中心,由备数据中心的负载均衡设备进行流量分配。因此,通过本申请实施例所提供的方案,可以实现一旦数据中心(例如,主数据中心)发生灾难性故障,业务流量可以迅速迁移至另一数据中心(例如,备数据中心),在另一数据中心短时间内恢复服务功能,从而减少用户等待相应时间,增强网络数据处理能力,提高网络的灵活 性和可用性。

由此,本申请提供的上述实施例2的方案解决了现有技术中在数据中心故障、不可用时,互联网数据中心中的互联网服务中断的技术问题。

在本申请上述实施例中,如图8所示,上述装置还可以包括:切换模块81。

其中,切换模块81用于监测主数据中心,如果监测到主数据中心处于不可用状态,则将主数据中心切换为备数据中心。

具体的,上述不可用状态至少包括如下任意一种状态:断电状态、故障状态、入侵状态和溢出状态。

此处需要说明的是,上述切换模块81对应于实施例1中的步骤s24,该模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例二所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。

通过上述方案,在主数据中心不可用时,将主数据中心切换为备数据中心,从而实现在主数据中心故障、不可用时,切换为备数据中心,由备数据中心为用户提供服务。

在本申请上述实施例中,如图9所示,上述装置还可以包括:设置模块91和同步模块93。

其中,设置模块91,用于将数据中心集群中优先级高的数据中心设置为所述主数据中心,优先级低的数据中心设置为所述备数据中心;同步模块93用于主数据中心与备数据中心实时同步数据。

具体的,主数据中心和备数据中心具有互备的关系,主数据中心的数据可以实时地备份到备数据中心,使得当主数据中心(或者备数据中心)出现故障时,备数据中心(或者主数据中心)可以在短时间内将应用接管过来,从而保证了应用的持续性。

此处需要说明的是,上述同步模块93对应于实施例1中的步骤s26,该模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例二所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。

通过上述提供的方案,主数据中心与备数据中心可以实时同步数据,从而实现在将主数据中心切换为备数据中心之后,备数据中心的负载均衡设备可以对传输至主数据中心的业务流量进行分配,保证用户业务服务的可用性。

在本申请上述实施例中,负载均衡设备包括如下任意一种或多种类型:三层负载 均衡设备、四层负载均衡设备、五层负载均衡设备、六层负载均衡设备和七层负载均衡设备。

具体的,上述步骤中的三层负载均衡设备基于ip地址,可以通过一个虚拟ip地址接收请求,然后分配到真实的ip地址;四层负载均衡设备基于ip地址和端口,可以通过虚拟ip地质和端口接收请求,然后在分配到真实的服务器;七层负载均衡设备基于url等应用层信息,可以通过虚拟的url地质或主机名接收请求,然后在分配到真实的服务器。

在本申请上述实施例中,如图10所示,在负载均衡设备包括四层负载均衡设备的情况下,控制模块71还可以包括:第一选择子模块101和第一分配子模块103。

其中,第一选择子模块101用于根据调度策略来选择目标服务器;第一分配子模块103用于将业务流量通过lvs集群分配给目标服务器。

具体的,上述步骤中的调度策略可以包括轮询方式、url调度策略、url哈希调度策略或一致性哈希调度策略,但不仅限于此。四层负载均衡设备可以通过ecmp等价路由,将数据流量发送给lvs集群,再由lvs集群转发给目标服务器。

此处需要说明的是,上述第一选择子模块101和第一分配子模块103对应于实施例1中的步骤s222至步骤s224,两个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例二所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。

通过上述方案,负载均衡设备可以通过调度策略确定目标服务器,并通过lvs集群分配给目标服务器,从而保证用户服务的可用性,提高了负载均衡服务的稳定性。

在本申请上述实施例中,调度策略包括:通过检查多个后端业务服务器中的在线状态或资源使用率来确定目标服务器,其中,通过备数据中心的控制服务器来配置调度策略,在任意一个数据中心允许访问每个后端业务群的情况下,lvs集群在多个后端业务服务器中转发业务流量时会产生交叉流。

通过上述方案,可以通过检查多个后端业务服务器中的在线状态或资源使用率来确定目标服务器,从而使多个后端业务服务器能很好的共同完成任务,消除或避免现有网络负载分布不均、数据流量拥挤反应时间长的瓶颈。

在本申请上述实施例中,如图11所示,在负载均衡设备包括七层负载均衡设备的情况下,控制模块71还可以包括:第二选择子模块111和第二分配子模块113。

其中,第二选择子模块111用于根据调度策略来选择目标服务器;第二分配子模 块113用于将业务流量通过lvs集群分配给目标服务器。

具体的,上述步骤中的调度策略可以与四层负载均衡设备的调度策略相同,也可以不同。七层负载均衡设备可以通过ecmp等价路由,将数据流量发送给lvs集群,再由lvs集群转发给目标服务器。

此处需要说明的是,负载均衡设备在这种情况下,更类似于一个代理服务器。负载均衡和前端的客户端以及后端的服务器会分别建立tcp连接。因此,七层负载均衡设备的要求更高,处理能力低于四层负载均衡设备。

此处需要说明的是,上述第二选择子模块111和第二分配子模块113对应于实施例1中的步骤s226至步骤s228,两个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例二所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。

通过上述方案,负载均衡设备可以通过调度策略确定目标服务器,并通过lvs集群分配给目标服务器,从而保证用户服务的可用性,避免应用层故障,提高了负载均衡服务的稳定性。

在本申请上述实施例中,调度策略包括:通过检查多个后端业务服务器中的在线状态或资源使用率来确定目标服务器,其中,通过备数据中心的控制服务器来配置调度策略,在多个后端业务群仅允许当前的备数据中心访问的情况下,lvs集群中分配给每个lvs的至少一个具有连接关系的后端业务服务器均不相同,使得多个后端业务服务器中转发业务流量时不会产生交叉流。

通过上述方案,可以通过检查多个后端业务服务器中的在线状态或资源使用率来确定目标服务器,从而使多个后端业务服务器能很好的共同完成任务,消除或避免现有网络负载分布不均、数据流量拥挤反应时间长的瓶颈。

在本申请上述实施例中,备数据中心的控制服务器来配置当前数据中心所对应的rds数据库,在rds数据库仅允许当前的备数据中心访问的情况下,使得rds数据库存储业务流量时不会产生交叉流。

实施例3

根据本申请实施例,还提供了一种数据中心间的业务流量控制系统,如图12所示,该系统可以包括:主数据中心121和备数据中心123。

其中,主数据中心121,部署至少一个负载均衡设备,用于接收并转发业务流量;备数据中心123,与主数据中心121具有互备关系,并部署了至少一个负载均衡设备, 其中,在主数据中心切换至备数据中心的情况下,将业务流量引导至备数据中心,并由备数据中心的负载均衡设备对业务流量进行分配。

具体的,上述步骤中的主数据中心和备数据中心可以是同一地域(region)下的两个数据中心(idc机房),可以将数据中心集群中优先级高的数据中心设置为主数据中心,优先级低的数据中心设置为备数据中心。在主数据中心切换为备数据中心之后,可以将主数据中心的数据迁移到备份数据中心,主数据中心的存储设备与备数据中心的存储设备进行通信,将主数据中心的存储设备中的数据实时同步到备数据中心的存储设备,备数据中心根据业务服务器的网络信息、网络设备配置信息和业务服务器信息创建相应的业务网络和业务服务器;将传输至主数据中心的业务流量引导至备数据中心,具体方法为,主数据中心的负载均衡设备可以将用户发送的业务流量进行地址和端口转换,将用户发送的业务流量发送至备数据中心的负载均衡设备;负载均衡设备可以根据负载均衡算法,将业务流量转发至目标服务器。

例如,以如图3所示的应用场景为例,对本申请上述实施例进行详细说明。在阿里云idc(alyidc)中的互联网服务,可以将同一地域下idc中的互联网服务的ip地址以不同的“优先级”同时在两个机房宣告(bgp路由发布),如图3所示,站点a的slb路由器的bgp路由宣告为:x.y.z.0/24,站点b的slb路由器的bgp路由宣告为:x.y.z.0/25,x.y.z.128/25,优先级高的数据中心为主数据中心(可以是图3中站点a的slb路由器)优先级低的数据中心为备数据中心(可以是图3中站点b的slb路由器),主数据中心和备数据中心实现了互备的关系。正常情况下1/2的vip高优先级的运行在不同的两个idc下,在主数据中心切换至备数据中心的情况下,可以将传输至主数据中心的业务流量引导至备数据中心,备数据中心的负载均衡设备对接收到的业务流量进行分配,通过负载均衡算法将业务流量分配至相应的业务服务器。

本申请上述实施例3公开的方案中,主数据中心和备数据中心具有互备关系,主数据中心和备数据中心分别部署了至少一个负载均衡设备,在主数据中心切换至备数据中心的情况下,本方案可以将传输至主数据中心的业务流量引导至备数据中心,由备数据中心的负载均衡设备对业务流量进行分配,实现业务流量迁移。

容易注意到,主数据中心和备数据中心具有互备关系,主数据中心的数据可以实时同步到备数据中心,当主数据中心发生故障、不可用时,可以将主数据中心切换为备数据中心,由备数据中心的负载均衡设备进行流量分配。因此,通过本申请实施例所提供的方案,可以实现一旦数据中心(例如,主数据中心)发生灾难性故障,业务流量可以迅速迁移至另一数据中心(例如,备数据中心),在另一数据中心短时间内恢复服务功能,从而减少用户等待相应时间,增强网络数据处理能力,提高网络的灵活 性和可用性。

由此,本申请提供的上述实施例3的方案解决了现有技术中在数据中心故障、不可用时,互联网数据中心中的互联网服务中断的技术问题。

在本申请上述实施例中,如图13所示,上述系统还包括:中间路由器131。

其中,中间路由器131用于监测主数据中心,如果监测到主数据中心处于不可用状态,则将主数据中心切换为备数据中心。

具体的,上述不可用状态至少包括如下任意一种状态:断电状态、故障状态、入侵状态和溢出状态。

在一种可选的方案中,当中间路由器检测到主数据中心不可用时,可以下发数据中心切换指令,主数据中心的存储设备在接收到数据中心切换指令之后,可以将自身的优先级调低,备数据中心的存储设备在接收到数据中心切换指令之后,可以将自身的优先级挑高,从而实现将主数据中心切换为备数据中心。

例如,仍以如图3所示的应用场景为例,对本申请上述实施例进行详细说明。在alyidc中的互联网服务,平时“优先级高”的数据中心(可以是图3中站点a的slb路由器)为客户提供服务,一旦该数据中心不可用,边界路由协议bgp会很快(最差的情况180秒内,正常情况下30秒内)收敛,此时,“低优先级”的数据中心就会代替故障的(高优先级)数据中心,继续为用户服务。当单个数据中心发生不可用时,例如,当主数据中心发生不可用或者故障时,可以进行故障迁移,将主数据中心的数据备份到备数据中心,并将主数据中心切换为备数据中心,由备数据中心进行业务流量分配。

通过上述方案,在主数据中心不可用时,将主数据中心切换为备数据中心,从而实现在主数据中心故障、不可用时,切换为备数据中心,由备数据中心为用户提供服务。

在本申请上述实施例中,主数据中心121还用于在主数据中心切换至备数据中心之前,与备数据中心实时同步数据。

具体的,主数据中心和备数据中心具有互备的关系,主数据中心的数据可以实时地备份到备数据中心,使得当主数据中心(或者备数据中心)出现故障时,备数据中心(或者主数据中心)可以在短时间内将应用接管过来,从而保证了应用的持续性。

在一种可选的方案中,为了保证在主数据中心切换至备数据中心之后,备数据中心的负载均衡设备可以对传输至主数据中心的流量进行分配,因此,需要保证主数据 中心与备数据中心的数据同步,可以将主数据中心的存储设备与备数据中心的存储设备进行通信,实时同步主数据中心与备数据中心的数据,保证两个数据中心的数据同步。

例如,仍以如图3所示的应用场景为例,对本申请上述实施例进行详细说明。主数据中心(可以是图3中站点a的slb路由器)和备数据中心(可以是图3中站点b的slb路由器)可以进行通信,实时同步两个存储设备中的数据,并可以在将主数据中心切换为备数据中心的情况下,将主数据中心的数据备份到备数据中心,保证备数据中心的数据与主数据中心的数据同步。

通过上述方案,主数据中心与备数据中心可以实时同步数据,从而实现在将主数据中心切换为备数据中心之后,备数据中心的负载均衡设备可以对传输至主数据中心的业务流量进行分配,保证用户业务服务的可用性。

在本申请上述实施例中,负载均衡设备包括如下任意一种或多种类型:三层负载均衡设备、四层负载均衡设备、五层负载均衡设备、六层负载均衡设备和七层负载均衡设备。

具体的,上述步骤中的三层负载均衡设备基于ip地址,可以通过一个虚拟ip地址接收请求,然后分配到真实的ip地址;四层负载均衡设备基于ip地址和端口,可以通过虚拟ip地质和端口接收请求,然后在分配到真实的服务器;七层负载均衡设备基于url等应用层信息,可以通过虚拟的url地质或主机名接收请求,然后在分配到真实的服务器。

在一种可选的方案中,四层负载均衡设备可以通过发布三层的ip地址(vip),然后加四层的端口号,来确定需要进行负载均衡处理的流量,将需要进行负载均衡处理的流量转发至后台服务器,并保存转发后的后台服务器的标识信息,从而确保后续的所有流量都由同一台服务器处理。

在另一种可选的方案中,七层负载均衡设备可以在四层负载均衡设备的基础上,增加应用层的特征,例如,url地址,http协议或cookie等信息,来确定需要进行负载均衡处理的流量。

在本申请上述实施例中,如图14所示,负载均衡设备包括:四层负载均衡设备141。

其中,四层负载均衡设备141用于根据调度策略来选择目标服务器,并将业务流量通过lvs集群分配给目标服务器。

具体的,上述步骤中的调度策略可以包括轮询方式、url调度策略、url哈希调度策略或一致性哈希调度策略,但不仅限于此。四层负载均衡设备可以通过ecmp等价路由,将数据流量发送给lvs集群,再由lvs集群转发给目标服务器。

在一种可选的方案中,四层负载均衡设备与多个服务器连接,在接收到第一网络的用户发送的请求报文之后,可以将请求报文进行地址(包括源地址和目标地址)和端口转换,生成第二网络的请求报文,并采用调度策略从多个服务器中确定目标服务器,由lvs集群将第二网络的请求报文发送给相应的目标服务器。目标服务器可以利用源地址映射方式将返回的第二网络的响应报文返回至四层负载均衡设备,四层负载均衡设备在接收到第二网络的响应报文之后,对第二网络的响应报文进行地址和端口转换,生成第一网络的响应报文,并将第一网络的响应报文返回至用户。

此处需要说明的是,第一网络的请求报文和第一网络的响应报文属于同一个网络类型的报文,第二网络的请求报文和第二网络的响应报文属于同一个网络类型的报文。

例如,以如图4所示的应用场景为例,对本申请上述实施例进行详细说明。对于slb公有云4层用户,4层区域中,虚拟机vm代表对应用户实例。数据中心的slb可以通过健康检查来引导业务流量。常态下,一个监听的流量只通过一个数据中心转发。在将主数据中心(可以是图4中的站点a)切换为备数据中心(可以是图4中的站点b)的情况下,备数据中心的四层负载均衡设备根据调度策略来选择目标服务器,并将业务流量通过lvs集群分配给目标服务器。

通过上述方案,负载均衡设备可以通过调度策略确定目标服务器,并通过lvs集群分配给目标服务器,从而保证用户服务的可用性,提高了负载均衡服务的稳定性。

在本申请上述实施例中,如图15所示,负载均衡设备包括:七层负载均衡设备151。

其中,七层负载均衡设备151用于根据调度策略来选择目标服务器,并将业务流量通过lvs集群分配给目标服务器。

具体的,上述步骤中的调度策略可以与四层负载均衡设备的调度策略相同,也可以不同。七层负载均衡设备可以通过ecmp等价路由,将数据流量发送给lvs集群,再由lvs集群转发给目标服务器。

在一种可选的方案中,七层负载均衡设备与多个服务器连接,在接收到第一网络的用户发送的请求报文之后,可以通过代理服务器和客户端建立连接,接受到客户端发送的真正应用层内容的报文,然后根据该报文中的特定字段(例如http报文的报头),再根据调度策略,确定目标服务器。

此处需要说明的是,负载均衡设备在这种情况下,更类似于一个代理服务器。负载均衡和前端的客户端以及后端的服务器会分别建立tcp连接。因此,七层负载均衡设备的要求更高,处理能力低于四层负载均衡设备。

例如,以如图5所示的应用场景为例,对本申请上述实施例进行详细说明。对于slb公有云7层用户,4层区域中,代理服务器proxy代表slb的proxy组件。数据中心的slb可以通过健康检查来引导业务流量。常态下,一个监听的流量只通过一个数据中心转发。在将主数据中心(可以是图5中的站点a)切换为备数据中心(可以是图5中的站点b)的情况下,备数据中心的七层负载均衡设备根据调度策略来选择目标服务器,并将业务流量通过lvs集群分配给目标服务器。

通过上述方案,负载均衡设备可以通过调度策略确定目标服务器,并通过lvs集群分配给目标服务器,从而保证用户服务的可用性,避免应用层故障,提高了负载均衡服务的稳定性。

在本申请上述实施例中,如图16所示,备数据中心121还包括:控制服务器161。

其中,控制服务器161分别与四层负载均衡设备和七层负载均衡设备连接,用于配置调度策略。

在本申请上述实施例中,在负载均衡设备包括四层负载均衡设备的情况下,调度策略包括:通过检查多个后端业务服务器中的在线状态或资源使用率来确定目标服务器,控制服务器161还用于在任意一个数据中心允许访问每个后端业务群的情况下,lvs集群在多个后端业务服务器中转发业务流量时会产生交叉流。

在一种可选的方案中,为了使一台处理服务请求较少的服务器能分配到更多的服务请求,或者出现故障的服务器将不再接受服务请求直至故障恢复,可以通过检查多个后端业务服务器的在线状态确定业务服务器中是否存在出现故障的服务器,并通过检查多个后端业务服务器的资源使用率确定每个业务服务器处理的服务请求的数量,确定最优的目标服务器。

例如,仍以如图4所示的应用场景为例,对本申请上述实施例进行详细说明。对于slb公有云4层用户,4层区域中,虚拟机vm可以代表对应用户实例,其所有实例对所有数据中心都可见,因此,lvs集群在转发业务流量时会出现流量交叉。

通过上述方案,可以通过检查多个后端业务服务器中的在线状态或资源使用率来确定目标服务器,从而使多个后端业务服务器能很好的共同完成任务,消除或避免现有网络负载分布不均、数据流量拥挤反应时间长的瓶颈。

在本申请上述实施例中,在负载均衡设备包括七层负载均衡设备的情况下,调度策略包括:通过检查多个后端业务服务器中的在线状态或资源使用率来确定目标服务器,控制服务器161还用于在多个后端业务群仅允许当前的备数据中心访问的情况下,lvs集群中分配给每个lvs的至少一个具有连接关系的后端业务服务器均不相同,使得多个后端业务服务器中转发业务流量时不会产生交叉流。

在一种可选的方案中,为了使一台处理服务请求较少的服务器能分配到更多的服务请求,或者出现故障的服务器将不再接受服务请求直至故障恢复,可以通过检查多个后端业务服务器的在线状态确定业务服务器中是否存在出现故障的服务器,并通过检查多个后端业务服务器的资源使用率确定每个业务服务器处理的服务请求的数量,确定最优的目标服务器。

例如,仍以如图5所示的应用场景为例,对本申请上述实施例进行详细说明。对于slb公有云7层用户,4层区域中,代理服务器proxy代表slb的proxy组件,其所有实例对所有数据中心都可见,因此,lvs集群在转发业务流量时会出现流量交叉,数据中心中的proxy组件只对本数据中心的slb可见。避免7层用户流量在l4区域中交叉,增加不必要的延时。

通过上述方案,可以通过检查多个后端业务服务器中的在线状态或资源使用率来确定目标服务器,从而使多个后端业务服务器能很好的共同完成任务,消除或避免现有网络负载分布不均、数据流量拥挤反应时间长的瓶颈。

在本申请上述实施例中,在负载均衡设备包括七层负载均衡设备的情况下,控制服务器161还用于配置当前数据中心所对应的rds数据库,在rds数据库仅允许当前的备数据中心访问的情况下,使得rds数据库存储业务流量时不会产生交叉流。

例如,以如图5所示的应用场景为例,对本申请上述实施例进行详细说明。对于rds用户,4层区域中,虚拟机vm代表rds数据库。rds对延时敏感,因此在配置中,指定其数据库所在的数据中心id,由slb配置系统保证其只对本数据中心的slb可见,避免流量交叉,减少不必要的延时。

实施例4

本申请的实施例可以提供一种计算机终端,该计算机终端可以是计算机终端群中的任意一个计算机终端设备。可选地,在本实施例中,上述计算机终端也可以替换为移动终端等终端设备。

可选地,在本实施例中,上述计算机终端可以位于计算机网络的多个网络设备中的至少一个网络设备。

在本实施例中,上述计算机终端可以执行数据中心间的业务流量控制方法中以下步骤的程序代码:具有互备关系的主数据中心和备数据中心,主数据中心和备数据中心分别部署了至少一个负载均衡设备,其中,在主数据中心切换至备数据中心的情况下,将传输至主数据中心的业务流量引导至备数据中心,由备数据中心的负载均衡设备对业务流量进行分配。

可选地,图17是根据本申请实施例四的一种计算机终端的结构框图。如图17所示,该计算机终端a可以包括:一个或多个(图中仅示出一个)处理器171、存储器173、以及传输装置175。

其中,存储器173可用于存储软件程序以及模块,如本申请实施例中的数据中心间的业务流量控制方法和装置对应的程序指令/模块,处理器171通过运行存储在存储器内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的数据中心间的业务流量控制方法。存储器173可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器173可进一步包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至终端a。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。

处理器171可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:具有互备关系的主数据中心和备数据中心,主数据中心和备数据中心分别部署了至少一个负载均衡设备,其中,在主数据中心切换至备数据中心的情况下,将传输至主数据中心的业务流量引导至备数据中心,由备数据中心的负载均衡设备对业务流量进行分配。

可选的,上述处理器171还可以执行如下步骤的程序代码:通过中间路由器来监测主数据中心,如果监测到主数据中心处于不可用状态,则将主数据中心切换为备数据中心。

可选的,上述处理器171还可以执行如下步骤的程序代码:不可用状态至少包括如下任意一种状态:断电状态、故障状态、入侵状态和溢出状态。

可选的,上述处理器171还可以执行如下步骤的程序代码:将数据中心集群中优先级高的数据中心设置为主数据中心,优先级低的数据中心设置为备数据中心,其中,在主数据中心切换至备数据中心之前,方法还包括:主数据中心与备数据中心实时同步数据。

可选的,上述处理器171还可以执行如下步骤的程序代码:负载均衡设备包括如 下任意一种或多种类型:三层负载均衡设备、四层负载均衡设备、五层负载均衡设备、六层负载均衡设备和七层负载均衡设备。

可选的,上述处理器171还可以执行如下步骤的程序代码:在负载均衡设备包括四层负载均衡设备的情况下,备数据中心的四层负载均衡设备根据调度策略来选择目标服务器;四层负载均衡设备将业务流量通过lvs集群分配给目标服务器。

可选的,上述处理器171还可以执行如下步骤的程序代码:调度策略包括:通过检查多个后端业务服务器中的在线状态或资源使用率来确定目标服务器,其中,通过备数据中心的控制服务器来配置调度策略,在任意一个数据中心允许访问每个后端业务群的情况下,lvs集群在多个后端业务服务器中转发业务流量时会产生交叉流。

可选的,上述处理器171还可以执行如下步骤的程序代码:在负载均衡设备包括七层负载均衡设备的情况下,备数据中心的七层负载均衡设备根据调度策略来选择目标服务器;七层负载均衡设备将业务流量通过lvs集群分配给目标服务器。

可选的,上述处理器171还可以执行如下步骤的程序代码:调度策略包括:通过检查多个后端业务服务器中的在线状态或资源使用率来确定目标服务器,其中,通过备数据中心的控制服务器来配置调度策略,在多个后端业务群仅允许当前的备数据中心访问的情况下,lvs集群中分配给每个lvs的至少一个具有连接关系的后端业务服务器均不相同,使得多个后端业务服务器中转发业务流量时不会产生交叉流。

可选的,上述处理器171还可以执行如下步骤的程序代码:备数据中心的控制服务器来配置当前数据中心所对应的rds数据库,在rds数据库仅允许当前的备数据中心访问的情况下,使得rds数据库存储业务流量时不会产生交叉流。

采用本申请实施例,主数据中心和备数据中心具有互备关系,主数据中心和备数据中心分别部署了至少一个负载均衡设备,在主数据中心切换至备数据中心的情况下,本可以将传输至主数据中心的业务流量引导至备数据中心,由备数据中心的负载均衡设备对业务流量进行分配,实现业务流量迁移。解决了现有技术中在数据中心故障、不可用时,互联网数据中心中的互联网服务中断的技术问题。

本领域普通技术人员可以理解,图17所示的结构仅为示意,计算机终端也可以是智能手机(如android手机、ios手机等)、平板电脑、掌声电脑以及移动互联网设备(mobileinternetdevices,mid)、pad等终端设备。图17其并不对上述电子装置的结构造成限定。例如,计算机终端a还可包括比图17中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图17所示不同的配置。

本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以 通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(read-onlymemory,rom)、随机存取器(randomaccessmemory,ram)、磁盘或光盘等。

实施例5

本申请的实施例还提供了一种存储介质。可选地,在本实施例中,上述存储介质可以用于保存上述实施例1所提供的数据中心间的业务流量控制方法所执行的程序代码。

可选地,在本实施例中,上述存储介质可以位于计算机网络中计算机终端群中的任意一个计算机终端中,或者位于移动终端群中的任意一个移动终端中。

可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:具有互备关系的主数据中心和备数据中心,主数据中心和备数据中心分别部署了至少一个负载均衡设备,其中,在主数据中心切换至备数据中心的情况下,将传输至主数据中心的业务流量引导至备数据中心,由备数据中心的负载均衡设备对业务流量进行分配。

可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:通过中间路由器来监测主数据中心,如果监测到主数据中心处于不可用状态,则将主数据中心切换为备数据中心。

可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:不可用状态至少包括如下任意一种状态:断电状态、故障状态、入侵状态和溢出状态。

可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:将数据中心集群中优先级高的数据中心设置为主数据中心,优先级低的数据中心设置为备数据中心,其中,在主数据中心切换至备数据中心之前,方法还包括:主数据中心与备数据中心实时同步数据。

可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:负载均衡设备包括如下任意一种或多种类型:三层负载均衡设备、四层负载均衡设备、五层负载均衡设备、六层负载均衡设备和七层负载均衡设备。

可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:在负载均衡设备包括四层负载均衡设备的情况下,备数据中心的四层负载均衡设备根据调度策略来选择目标服务器;四层负载均衡设备将业务流量通过lvs集群分配给目标服务器。

可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:调度策略包括:通过检查多个后端业务服务器中的在线状态或资源使用率来确定目标服务器,其中,通过备数据中心的控制服务器来配置调度策略,在任意一个数据中心允许访问每个后端业务群的情况下,lvs集群在多个后端业务服务器中转发业务流量时会产生交叉流。

可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:在负载均衡设备包括七层负载均衡设备的情况下,备数据中心的七层负载均衡设备根据调度策略来选择目标服务器;七层负载均衡设备将业务流量通过lvs集群分配给目标服务器。

可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:调度策略包括:通过检查多个后端业务服务器中的在线状态或资源使用率来确定目标服务器,其中,通过备数据中心的控制服务器来配置调度策略,在多个后端业务群仅允许当前的备数据中心访问的情况下,lvs集群中分配给每个lvs的至少一个具有连接关系的后端业务服务器均不相同,使得多个后端业务服务器中转发业务流量时不会产生交叉流。

可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:备数据中心的控制服务器来配置当前数据中心所对应的rds数据库,在rds数据库仅允许当前的备数据中心访问的情况下,使得rds数据库存储业务流量时不会产生交叉流。

上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。

在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。

在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例 方案的目的。

另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。

所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、只读存储器(rom,read-onlymemory)、随机存取存储器(ram,randomaccessmemory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。

以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1