
数据中心中基于qos流分类的光电混合交换方法及设备
技术领域
1.本公开涉及数据流交换技术领域,尤其涉及一种数据中心中基于qos流分类的光电混合交换方法及设备。
背景技术:2.在光电混合数据中心网络架构下,使用数据流调度转发方案可以充分的利用eps灵活转发和ocs高带宽低时延的优势进行数据转发,目前的调度方案主要有两种,第一种是不区分数据流进行转发,第二种是区分大小流进行转发。
3.不区分数据流转发就是对通过机架顶部交换机的数据流进行无差别转发。如果使用该调度方案,可能造成“大象流”(通常产生于带宽敏感性的业务,对于数据中心有着更高的带宽需求)转发会在交换机出入口产生比较大的压力,使得数据流的排队时延大大增加,严重情况下可能造成交换机端口队列的阻塞和丢包。
4.区分大小流转发通常对经过tor的数据流先分类,然后再进行分类转发。通过该方案能够很好的避免“大象流”对eps带来的带宽压力,但并没有考虑光交换机重配置时间对实时性的“大象流”业务所造成的时延影响,例如视频直播、网络协议电视(iptv)、基于ip的语音传输(ipov)等带宽敏感和时延敏感的网络业务,降低了数据中心对实时性数据业务的处理能力和服务质量。
技术实现要素:5.有鉴于此,本公开的目的在于提出一种数据中心中基于qos流分类的光电混合交换方法及设备。
6.基于上述目的,本公开提供了一种数据中心中基于qos流分类的光电混合交换方法,包括:
7.利用qos控制机制对到达leaf层tor的数据流依据带宽敏感性和时延敏感性进行分类;
8.确定所述leaf层tor与不同目标tor之间通过ocs的光链路连接情况;
9.响应于确定所述光链路连接,将与所述光链路对应的数据流按照时延敏感数据流优先于带宽敏感数据流的次序依次调度到连接ocs的端口队列中等待被转发;
10.响应于确定所述光链路不连接,将与所述光链路对应的数据流按照时延敏感数据流优先于带宽敏感数据流的次序依次调度到连接eps的端口队列中等待被转发。
11.进一步的,所述利用qos控制机制对到达leaf层tor的数据流依据带宽敏感性和时延敏感性进行分类,包括:
12.利用qos控制机制对到达leaf层的tor的数据流依据带宽敏感性和时延敏感性进行标记,在数据流的数据帧的头部中添加数据流的标记信息;
13.在所述tor中解析所述数据帧的头部结构,根据所述标记信息对数据流进行分类。
14.进一步的,所述leaf层tor通过查找光交换矩阵确定在不同配置周期下leaf层tor
与不同目标tor之间通过ocs的光链路连接情况。
15.进一步的,所述时延敏感数据流包括时延敏感带宽不敏感数据流、时延敏感带宽敏感数据流;所述带宽敏感数据流包括带宽敏感时延敏感数据流,带宽敏感时延不敏感数据流。
16.进一步的,所述时延敏感数据流、带宽敏感数据流在所述连接ocs和eps的端口队列中等待被转发的优先级从高到低依次为时延敏感带宽不敏感数据流、时延敏感带宽敏感数据流、时延不敏感带宽不敏感数据流、时延不敏感带宽敏感数据流。
17.进一步的,将位于eps端口队列中排队等待转发的时延敏感带宽敏感的数据流调度到ocs端口采用多跳调度的方式进行转发,包括:
18.将位于eps端口队列中排队等待转发的从所述tor到第一目标tor的时延敏感带宽敏感的数据流调度到ocs端口,其中所述tor与第一目标tor之间通过ocs的光链路不连接;
19.将所述数据流通过ocs从所述tor转发到第二目标tor,其中所述tor与所述第二目标tor之间通过ocs的光链路连接;
20.将所述数据流通过ocs从所述第二目标tor转发到第一目标tor,其中所述第二目标tor与第一目标tor之间通过ocs的光链路连接。
21.进一步的,响应于确定所述ocs在第一配置周期内转发能力充足,将在ocs第二配置周期才能被转发的数据流采用多跳调度的方式调度到ocs第一配置周期内进行转发,包括:
22.将在ocs第二配置周期才能被转发的从所述tor到第三目标tor的数据流通过ocs在第一配置周期内从所述tor转发到第四目标tor,其中所述tor与所述第四目标tor之间在第一配置周期内通过ocs的光链路连接;
23.将所述数据流通过ocs在第一配置周期内从所述第四目标tor转发到第三目标tor,其中所述第四目标tor与第三目标tor之间在第一配置周期内通过ocs的光链路连接。
24.进一步的,响应于确定所述eps在第一配置周期内转发能力不足,将所有带宽敏感时延不敏感的数据流调度到连接ocs的端口队列中延迟到下一个配置周期等待被转发。
25.基于同一发明构思,本公开还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1至8任意一项所述的方法。
26.基于同一发明构思,本公开还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使计算机执行权利要求1至8任一所述方法。
27.从上面所述可以看出,本公开提供的一种数据中心中基于qos流分类的光电混合交换方法及设备,在spine
‑
leaf架构中设计基于qos数据流转发结构,极大程度的将eps灵活转发和ocs高带宽低时延的优势结合起来,对于不同特征的数据流可以灵活的调用不同的方案进行转发,有效的保证数据流的服务性能,在数据中心多租户的环境中也能很好的保证不同网络业务的服务质量,特别是对于既需要高传输率,又需要低时延的数据流业务十分重要。
附图说明
28.为了更清楚地说明本公开或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
29.图1为本公开实施例的一种数据中心中基于qos流分类的光电混合交换方法的流程示意图;
30.图2(a)为本公开实施例的一种数据中心中基于qos流分类的光电混合交换方法的原理示意图;
31.图2(b)为本公开实施例的数据流分类示意图;
32.图3为本公开实施例的尽最大能力单跳转发方法示意图;
33.图4为本公开实施例的保证时延多跳转发方法示意图;
34.图5为本公开实施例的电子设备的结构示意图。
具体实施方式
35.为使本公开的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本公开进一步详细说明。
36.需要说明的是,除非另外定义,本公开实施例使用的技术术语或者科学术语应当为本公开所属领域内具有一般技能的人士所理解的通常意义。本公开实施例中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
37.随着互联网的普及以及用户和大量服务数据的激增,爆炸性增长的业务量和数据量引发了数据存储与数据处理方式的大变革,计算能力成为各个企业比较看中的核心竞争,而数据也正在成为一个企业非常宝贵的虚拟“黄金”。在新的能源时代里,核心的资源不再是石油,数据将成为企业最重要的资产。企业将利用他们拥有的数据为客户提供服务,利用数据创造新的商业价值,并最终通过控制数据产生竞争优势。总而言之,获取数据、处理数据、交换数据的能力是数据时代里企业的核心竞争力。在这样的背景下,数据中心也成为了一个炙手可热的行业名词。所谓数据中心,是企业用来容纳其关键业务应用程序和信息的物理设施。在过去几年中,由google,facebook,aws,阿里巴巴和microsoft领导的超大规模数据中心投资已显著增长。数据中心市场正在见证来自托管服务提供商、云/超大规模服务提供商和电信服务提供商的大量投资。由于各个行业的技术进步,全球数据中心市场对托管和托管服务的需求正在增长。每个行业都既享受到数据中心带来的服务,也受到了数据中心发展进程所带来的约束,整个信息技术行业也逐渐从it(information technology)时代走向dt(data technology)时代,数据中心也随之占据举足轻重的地位。
38.在传统数据中心网络架构中,通常把电交换机作为不同服务器、不同机架间数据
交换的网络设备,但是这种架构存在电交换机端口能耗较大、链路带宽受限于距离和发射机功率、交换机容量受限于信号速率与芯片封装面积等问题。并且随着网络规模的增大,电交换机和端口的数量需大量增加,这会造成数据中心更大的运行成本和维护难度。
39.如果在数据中心网络架构中通过光交换机建立通道,那么数据中心内需要通信的网络设备中的两个光模块可以直接通信,实现数据的交换,省掉了现有电交换中进行o/e转换、电交换、e/o转换的中间过程,这样就可以避免现有电交换在链路上的损失以及光模块e/o和o/e转换的能量损失。光交换只需要驱动电路消耗能量,相比现有的电交换功耗大幅度降低,另外光交换还能避免信号失真。因此如何将光交换技术集成到数据中心的建设当中,设计出性能更好、能耗更低的光电混合数据中心网络架构是目前的一大研究热点。
40.在光电混合网络架构中通常采用的spine
‑
leaf结构是一种两层结构。leaf层是由电分组交换机(electrical packet switch,eps)组成,和传统架构中的接入层类似,能够实现机架内各个服务器之间的互连与通信,并能够将服务器发出的数据通过决策转发到spine层的交换机,而在spine层,通常是eps和光交换机(optical circuit switch,ocs)混合的一种结构,eps用来处理流量小,突发性高的数据流;而ocs通常处理时延不敏感、流量大的数据流,这样能够很好的结合光交换技术和电分组交换机技术的优势。
41.多样化的网络业务使得互联网流量激增,从而产生网络拥塞,增加转发时延,严重时还会产生丢包,导致业务质量下降。要在网络上开展这些实时性业务,就必须解决网络拥塞问题。解决网络拥塞最好的办法是增加网络的带宽,但从运营、维护的成本考虑,这是不现实的,最有效的解决方案就是应用一个“有保证”的策略对网络流量进行管理。
42.qos(quality of service)即服务质量,就是在这种背景下发展起来的,其目的是针对各种业务的不同需求,为其提供端到端的服务质量保证。qos是有效利用网络资源的工具,它允许不同的流量不平等的竞争网络资源,语音、视频和重要的数据应用在网络设备中可以优先得到服务。qos是对流量的操纵,使得路由器或交换机等网络设备采取与生成该流量的应用程序所需行为一致的方式转发流量。qos使网络设备能够区分流量,然后向流量应用不同的行为。而数据中心网络具有多租户、流量特征复杂的特点,使用单一化的流量调度策略会造成网络业务的拥塞以及网络资源的浪费,如果将qos应用到数据中心网络中,将会在一定程度上解决这个问题。
43.在光电混合数据中心网络架构下,使用数据流转发方案可以充分的利用eps灵活转发和ocs高带宽低时延的优势进行数据转发,目前所有的调度方案主要有两种,第一种是不区分数据流进行转发,第二种是区分大小流进行转发。
44.不区分数据流转发就是对通过机架顶部交换机(top of rack switch,tor)数据流进行无差别转发。在光电混合数据中心网络架构中,tor首先对到达的数据流解析出目的地址,然后查找到达该地址的光链路是否连接,如果是连接状态,则通过ocs转发该数据流;否则,则通过eps转发该数据流。在这种方案下,可以节省对数据流进行调度决策的时间,也可以减少数据流的处理时延,但是随着网络业务的不断发展,数据中心的流量特征越来越复杂。通常在一个数据中心中要承载着各种各样的业务,为用户提供web搜索、视频直播、网络协议电视(iptv)、基于ip的语音传输(ipov)、虚拟机迁移等服务。根据不同业务产生的不同传输数据量又可以将数据中心的数据流分为“大象流”和“老鼠流”,大象流通常产生于带宽敏感性的业务,对于数据中心有着更高的带宽需求;老鼠流数据量比较小,灵活性比较
高。在数据中心流量研究报告中指出,数据中心的数据类型符合“二八定律”,数据中心中百分之二十的数据流属于大象流,但是却承载了百分之八十的流量。如果使用该调度方案,可能造成“大象流”转发会在交换机出入口产生比较大的压力,使得数据流的排队时延大大增加,严重情况下可能造成交换机端口队列的阻塞和丢包。
45.区分大小流转发就是在全连接光电混合网络架构背景下,针对“大象流”对数据中心流量冲突所造成的拥塞问题所提出的。通常对经过tor的数据流先区分“大象流”和“老鼠流”,然后将带宽需求高的“大象流”分发给ocs进行转发,将“老鼠流”分发给eps结合等价多路径路由机制(equal
‑
cost multi
‑
path routing,ecmp)进行转发。通过区分大小流调度方案能够很好的避免“大象流”对eps带来的带宽压力,但并没有考虑光交换机重配置时间对实时性的“大象流”业务所造成的时延影响,例如视频直播、网络协议电视(iptv)、基于ip的语音传输(ipov)等带宽敏感和时延敏感的网络业务,降低了数据中心对实时性数据业务的处理能力和服务质量。
46.为了解决传统流量调度方案对实时性数据流业务的在处理能力和服务质量方面的负面影响,本公开提出了一种数据中心中基于qos流分类的光电混合交换方法及设备。
47.如下为本公开提到的缩略语和关键术语解释:
48.eps:电交换机(electrical packet switch)
49.ocs:光交换机(optical circuit switch)
50.qos:服务质量(quality of service)
51.tor:机架顶部交换机(top of rack switch)
52.beof:尽最大能力单跳转发(best effort one
‑
hop forwarding)
53.lfmf:保证时延多跳转发(latency friendly multi
‑
hop forwarding)
54.以下结合附图来详细说明本公开的实施例。
55.参考图1,本公开提供了一种数据中心中基于qos流分类的光电混合交换方法,包括:
56.步骤s101、利用qos控制机制对到达leaf层tor的数据流依据带宽敏感性和时延敏感性进行分类。
57.具体的,利用qos控制机制对到达leaf层的tor的数据流依据带宽敏感性和时延敏感性进行标记,在数据流的数据帧的头部中添加数据流的标记信息;在所述tor中解析所述数据帧的头部结构,根据所述标记信息对数据流进行分类。
58.如图2(a)所示,不同tor连接的服务器通信时需要通过spine层的交换机进行转发,这时在leaf层的tor中需要决策数据流是通过eps或ocs进行数据转发。
59.首先利用qos控制机制对到达leaf层的tor即图3中所示的tor1的数据流进行标记,在数据流的数据帧的头部中添加数据流的标记信息;然后在tor中解析数据流的数据帧头部结构,根据所述标记信息对数据流进行分类。
60.具体的,如图2(b)所示,将到达leaf层tor的数据流依据带宽敏感性和时延敏感性分为带宽敏感时延敏感数据流、带宽不敏感时延敏感数据流、带宽不敏感时延不敏感数据流、带宽敏感时延不敏感数据流四种类型。
61.为了表示方便,在图3中我们只表明每条数据流的源地址和目的地址,并且使用不同的图形填充来表明数据流的类型,例如碎格填充的方块(1,3)表示该数据流是从tor1到
达tor3的带宽敏感时延敏感的数据流、大网格填充的方块(1,2)表示该数据流是从tor1到达tor2的带宽不敏感时延敏感的数据流、竖条填充的方块(1,2)表示该数据流是从tor1到达tor2的带宽敏感时延不敏感的数据流、斜杠填充的方块(1,4)表示的数据流是从tor1到达tor4的带宽不敏感时延不敏感的数据流。
62.在spine
‑
leaf架构中设计基于qos数据流转发结构,极大程度的将eps灵活转发和ocs高带宽低时延的优势结合起来,对于不同特征的数据流可以灵活的调用不同的方案进行转发,有效的保证数据流的服务性能,在数据中心多租户的环境中也能很好的保证不同网络业务的服务质量,特别是对于既需要高传输率,又需要低时延的数据流业务十分重要。
63.s102、确定所述leaf层tor与不同目标tor之间通过ocs的光链路连接情况。
64.具体的,所述leaf层tor通过查找光交换矩阵确定在不同配置周期下leaf层tor与不同目标tor之间通过ocs的光链路连接情况。
65.基于mems(micro
‑
electro
‑
mechanical system,微机电系统)的光交换机ocs所提供的并行连接极为有限,一旦交换机响应某个连接请求,则在后续一段时间内,交换机的特定输入输出端口被该连接独占,即在同一个配置周期内,光交换只能由特定的输入端口接收数据和特定的端口输出数据。
66.所述配置周期是mems光交交换机自身的特点,会有多个配置周期。
67.本公开中将这种数据转发行为抽象到一个二维矩阵中,形成本公开所述的光交换矩阵。所述光交换矩阵并不是通用的一种表示方法,而是根据mems交换机的特性,抽象出来的一种用来表示一个周期内哪一对tor可以进行数据转发的表示方法。例如图3、图4中通过一个ocs将四个tor互连,则画出一个4
×
4的二维矩阵,表示在一个周期内,tor1可以向tor2发送数据、tor2可以向tor3发送数据、tor3可以向tor4发送数据、tor4可以向tor1发送数据。
68.具体的,如图3所示,所述光交换矩阵中“1”表示该时刻所述leaf层tor即tor1与对应的目标tor通过ocs的光链路连接,此时tor1交换机可以通过ocs和目标tor进行数据转发;“0”表示该时刻tor1与对应的目标tor通过ocs的光链路不连接,tor1交换机无法通过ocs和目标tor进行数据转发。
69.如图3所示,通过光交换矩阵可知,在第一配置周期t1内,tor1交换机只能通过ocs和tor2进行数据转发,tor2交换机只能通过ocs和tor3进行数据转发,tor3交换机只能通过ocs和tor4进行数据转发,tor4交换机只能通过ocs和tor1进行数据转发。在第二配置周期t2内,tor1交换机只能通过ocs和tor3进行数据转发,tor2交换机只能通过ocs和tor4进行数据转发,tor3交换机只能通过ocs和tor4进行数据转发,tor4交换机只能通过ocs和tor2进行数据转发。
70.需要说明的是,本公开实施例中使用的“tor1”、“tor2”、“tor3”、“tor4”以及类似的词语并不表示任何顺序、数量或者重要性,只是用来区分不同数据流的源地址和目的地址,仅仅是为了方便理解,并不对本公开做出任何限定。
71.s103、响应于确定所述光链路连接,将与所述光链路对应的数据流按照时延敏感数据流优先于带宽敏感数据流的次序依次调度到连接ocs的端口队列中等待被转发。
72.具体的,如图3所示,所述按照时延敏感数据流优先于带宽敏感数据流的次序依次调度到连接ocs或eps的端口队列中等待被转发的方法称为“尽最大能力单跳转发(beof)”。
当所述leaf层tor与不同目标tor之间通过ocs的光链路连接时,将所有所述光链路对应的数据流全部调度到连接ocs的端口队列中等待被转发,并且按照时延敏感数据流优先于带宽敏感数据流的次序进行排队。
73.s104、响应于确定所述光链路不连接,将与所述光链路对应的数据流按照时延敏感数据流优先于带宽敏感数据流的次序依次调度到连接eps的端口队列中等待被转发。
74.具体的,如图3所示,当所述leaf层tor与不同目标tor之间通过ocs的光链路不连接时,将所有所述光链路对应的数据流全部调度到连接eps的端口队列中等待被转发,并且按照时延敏感数据流优先于带宽敏感数据流的次序进行排队。
75.在ocs和eps端口,所有数据流均按照时延敏感数据流优先于带宽敏感数据流的次序进行排队,可以避免光交换机重配置时间对实时性的“大象流”业务所造成的时延影响,例如视频直播、网络协议电视(iptv)、基于ip的语音传输(ipov)等带宽敏感和时延敏感的网络业务,提升了数据中心对实时性数据业务的处理能力和服务质量。
76.本公开所述的分类调度方法既可以避免大象流对整个网络的时延影响,同时避免大象流在eps端口队列中造成阻塞和丢包的情况,也可以根据网络业务的动态变化,灵活处理到达tor的数据流,保证时延敏感性业务被优先转发,提高数据中心的服务质量。同时还能够根据数据流的特征选择不同的交换机进行转发,可以更好的利用eps和ocs的优势,提高数据中心设备对数据流的处理效率。
77.在一些实施例中,所述时延敏感数据流包括时延敏感带宽不敏感数据流、时延敏感带宽敏感数据流;所述带宽敏感数据流包括带宽敏感时延敏感数据流,带宽敏感时延不敏感数据流。
78.具体的,将数据流按照其时延敏感性及带宽敏感性分类,使得本方法对于不同特征的数据流可以灵活的调用不同的方案进行转发,极大程度的将eps灵活转发和ocs高带宽低时延的优势结合起来,在数据中心多租户的环境中也能很好的保证不同网络业务的服务质量。
79.在一些实施例中,所述时延敏感数据流、带宽敏感数据流在所述连接ocs和eps的端口队列中等待被转发的优先级从高到低依次为时延敏感带宽不敏感数据流、时延敏感带宽敏感数据流、时延不敏感带宽不敏感数据流、时延不敏感带宽敏感数据流。
80.具体的,如图3所示,在t1时期,tor1与tor2,tor2与tor3,tor3与tor4之间通过ocs的光链路连接,此时t1时期内tor1与tor2,tor2与tor3,tor3与tor4之间的数据可以通过ocs进行转发。以tor1与tor2之间的数据流为例,将这些数据流按照时延敏感带宽不敏感(图3中以大网格填充的方块表示)、时延敏感带宽敏感(图3中以碎格填充的方块表示)、时延不敏感带宽不敏感(图3中以斜杠填充的方块表示)、时延不敏感带宽敏感(图3中以竖条填充的方块表示)的顺序依次调度到连接ocs的端口队列中等待被转发。
81.同样在t1时期内,tor1与tor1,tor1与tor3,tor1与tor4,tor2与tor1,tor2与tor2,tor2与tor4,tor3与tor1,tor3与tor2,tor3与tor4,tor4与tor4,tor4与tor5,tor4与tor4之间通过ocs的光链路不连接,此时t1时期内上述各tor之间的数据不能通过ocs进行转发,只能通过eps进行转发。将所有这些能通过eps转发的数据流按照时延敏感带宽不敏感(图3中以大网格填充的方块表示)、时延敏感带宽敏感(图3中以碎格填充的方块表示)、时延不敏感带宽不敏感(图3中以斜杠填充的方块表示)、时延不敏感带宽敏感(图3中以竖
条填充的方块表示)的顺序依次调度到连接ocs的端口队列中等待被转发。
82.优先级从高到低依次为时延敏感带宽不敏感、时延敏感带宽敏感、时延不敏感带宽不敏感、时延不敏感带宽敏感,优先级的排列顺序保证时延敏感性业务被优先转发,提高数据中心的服务质量;同时在光链路连接的情况下,带宽敏感的数据优先被ocs转发,既可以避免带宽敏感的大象流对整个网络的时延影响,同时避免大象流在eps端口队列中造成阻塞和丢包的情况。同时也可以根据网络业务的动态变化,灵活处理到达tor的数据流,还能够根据数据流的特征选择不同的交换机进行转发,可以更好的利用eps和ocs的优势,提高数据中心设备对数据流的处理效率。
83.在一些实施例中,将位于eps端口队列中排队等待转发的时延敏感带宽敏感的数据流调度到ocs端口采用多跳调度的方式进行转发,包括:
84.将位于eps端口队列中排队等待转发的从所述tor到第一目标tor的时延敏感带宽敏感的数据流调度到ocs端口,其中所述tor与第一目标tor之间通过ocs的光链路不连接;
85.将所述数据流通过ocs从所述tor转发到第二目标tor,其中所述tor与所述第二目标tor之间通过ocs的光链路连接;
86.将所述数据流通过ocs从所述第二目标tor转发到第一目标tor,其中所述第二目标tor与第一目标tor之间通过ocs的光链路连接。
87.具体的,如图4所示,多跳调度的方式称为“保证时延多跳转发(lfmf)”,通过光交换矩阵可知,在t1配置周期内,此时tor1交换机只能通过ocs和tor2进行数据转发,同时,在t1配置周期内tor2交换机也可以通过ocs与tor3进行转发。但是从tor1到tor3之间的数据流无法通过ocs进行转发,只能通过eps进行转发。当从tor1到tor3之间的数据流为时延敏感带宽敏感数据流时,带宽敏感的数据流会对eps交换机出入口产生比较大的压力,使得数据流的排队时延大大增加,严重情况下可能造成交换机端口队列的阻塞和丢包。
88.此时,为了保证时延,同时为了避免造成eps交换机端口队列的阻塞和丢包,在t1配置周期内,可以将tor1到达tor3的数据流先调度到ocs使其转发给tor2,然后在tor2中再调度到ocs转发给tor3,通过这样多跳的方式就可以实现在t1配置周期内本不能通过ocs转发的从tor1到达tor3的数据流的转发。经过多跳的调度方式,在t1配置周期中只能通过eps转发的从tor1到达tor3的带宽敏感时延敏感的数据流就可以进入ocs端口队列中进行转发,避免造成eps交换机端口队列的阻塞和丢包,且保证了数据流的时延性。
89.利用多跳调度的转发方法,将在一个配置周期内只能通过eps转发的带宽敏感时延敏感的数据流实现可以通过ocs进行多跳转发,既避免了大象流对eps端口队列造成的延迟和丢包现象,也降低了时延敏感的大象流在eps队列中产生的等待时延和处理时延。
90.在一些实施例中,响应于确定所述ocs在第一配置周期内转发能力充足,将在ocs第二配置周期才能被转发的数据流采用多跳调度的方式调度到ocs第一配置周期内进行转发,包括:
91.将在ocs第二配置周期才能被转发的从所述tor到第三目标tor的数据流通过ocs在第一配置周期内从所述tor转发到第四目标tor,其中所述tor与所述第四目标tor之间在第一配置周期内通过ocs的光链路连接;
92.将所述数据流通过ocs在第一配置周期内从所述第四目标tor转发到第三目标tor,其中所述第四目标tor与第三目标tor之间在第一配置周期内通过ocs的光链路连接。
93.具体的,如图4所示,依据如上所述的多跳调度方式,将本来只能在t2配置周期内被ocs转发的从tor1到达tor3的带宽敏感时延不敏感的数据流,先调度到ocs第一配置周期内使其转发给tor2,然后在tor2中再调度到ocs转发给tor3,通过这样多跳的方式就可以实现在t1配置周期内本不能通过ocs转发的从tor1到达tor3的数据流的转发。如此可以充分利用ocs在第一配置周期内的转发能力,节约数据流转发的时间,提高转发时效。
94.ocs交换机的一个配置周期内只能连接一个端口,例如第一配置周期内只能连接tor1到tor2,如果tor1到tor2的数据流流量太小,那么由于ocs在第一配置周期内无法连接其他端口,第一配置周期内剩余的时间就闲置了。经过本公开所述的多跳调度的方式,在第一配置周期内就可以实现其他端口的转发,充分利用第一配置周期内剩余的时间,提高转发时效。
95.在一些实施例中,为了减轻连接ocs端口队列的压力,可以将原本通过ocs转发的从tor1到达tor2的带宽不敏感的数据流改为通过eps转发。
96.在一些实施例中,响应于确定所述eps在第一配置周期内转发能力不足,将所有带宽敏感时延不敏感的数据流调度到连接ocs的端口队列中延迟到下一个配置周期等待被转发。
97.具体的,在所述光交换矩阵的第一配置周期t1内,如果确定所述eps在第一配置周期内转发能力不足,为了避免带宽敏感的数据流对eps端口造成太大的压力进而影响其他数据流的转发,则将在eps端口排队的带宽敏感时延不敏感的数据流调度到连接ocs的端口队列中延迟到下一个配置周期等待被转发。将所述带宽敏感时延不敏感的数据流调度到ocs端口进行转发,既可以避免对eps端口造成太大的压力,防止出现拥堵或者丢包的情况,又可以满足其他时延敏感数据流的时效性。
98.需要说明的是,本公开实施例的方法可以由单个设备执行,例如一台计算机或服务器等。本实施例的方法也可以应用于分布式场景下,由多台设备相互配合来完成。在这种分布式场景的情况下,这多台设备中的一台设备可以只执行本公开实施例的方法中的某一个或多个步骤,这多台设备相互之间会进行交互以完成所述的方法。
99.需要说明的是,上述对本公开的一些实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于上述实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
100.基于同一发明构思,与上述任意实施例方法相对应的,本公开还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上任意一实施例所述的一种数据中心中基于qos流分类的光电混合交换方法。
101.图5示出了本实施例所提供的一种更为具体的电子设备硬件结构示意图,该设备可以包括:处理器1010、存储器1020、输入/输出接口1030、通信接口1040和总线1050。其中处理器1010、存储器1020、输入/输出接口1030和通信接口1040通过总线1050实现彼此之间在设备内部的通信连接。
102.处理器1010可以采用通用的cpu(central processing unit,中央处理器)、微处
理器、应用专用集成电路(application specific integrated circuit,asic)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本说明书实施例所提供的技术方案。
103.存储器1020可以采用rom(read only memory,只读存储器)、ram(random access memory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器1020可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器1020中,并由处理器1010来调用执行。
104.输入/输出接口1030用于连接输入/输出模块,以实现信息输入及输出。输入输出/模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
105.通信接口1040用于连接通信模块(图中未示出),以实现本设备与其他设备的通信交互。其中通信模块可以通过有线方式(例如usb、网线等)实现通信,也可以通过无线方式(例如移动网络、wifi、蓝牙等)实现通信。
106.总线1050包括一通路,在设备的各个组件(例如处理器1010、存储器1020、输入/输出接口1030和通信接口1040)之间传输信息。
107.需要说明的是,尽管上述设备仅示出了处理器1010、存储器1020、输入/输出接口1030、通信接口1040以及总线1050,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本说明书实施例方案所必需的组件,而不必包含图中所示的全部组件。
108.上述实施例的电子设备用于实现前述任一实施例中相应的一种数据中心中基于qos流分类的光电混合交换方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
109.基于同一发明构思,与上述任意实施例方法相对应的,本公开还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行如上任一实施例所述的一种数据中心中基于qos流分类的光电混合交换方法。
110.本实施例的计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(pram)、静态随机存取存储器(sram)、动态随机存取存储器(dram)、其他类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、快闪记忆体或其他内存技术、只读光盘只读存储器(cd
‑
rom)、数字多功能光盘(dvd)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
111.上述实施例的存储介质存储的计算机指令用于使所述计算机执行如上任一实施例所述的一种数据中心中基于qos流分类的光电混合交换方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
112.所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本公开的范围(包括权利要求)被限于这些例子;在本公开的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如
上所述的本公开实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。
113.另外,为简化说明和讨论,并且为了不会使本公开实施例难以理解,在所提供的附图中可以示出或可以不示出与集成电路(ic)芯片和其它部件的公知的电源/接地连接。此外,可以以框图的形式示出装置,以便避免使本公开实施例难以理解,并且这也考虑了以下事实,即关于这些框图装置的实施方式的细节是高度取决于将要实施本公开实施例的平台的(即,这些细节应当完全处于本领域技术人员的理解范围内)。在阐述了具体细节(例如,电路)以描述本公开的示例性实施例的情况下,对本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下或者这些具体细节有变化的情况下实施本公开实施例。因此,这些描述应被认为是说明性的而不是限制性的。
114.尽管已经结合了本公开的具体实施例对本公开进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。例如,其它存储器架构(例如,动态ram(dram))可以使用所讨论的实施例。
115.本公开实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本公开实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本公开的保护范围之内。