数据中心网络中tcp共流的调度方法和装置的制造方法

文档序号:10473641阅读:356来源:国知局
数据中心网络中tcp共流的调度方法和装置的制造方法
【专利摘要】本发明公开了一种数据中心网络中TCP共流的调度方法和装置。该方法包括:发送端根据共流初始信息生成每个待调度共流的初始优先级,并向待调度共流的每个TCP流对应的接收端发送第一调度数据包;在检测到待调度共流被服务时,根据生成待调度共流的共流优先级;根据与发送端关联的发送端剩余的TCP流的数据量每个TCP流的内部优先级;根据与发送端关联的发送端剩余的TCP流量和发送端剩余的每个TCP流的数据量生成每个TCP流的期望速率;由交换机根据共流优先级、内部优先级和期望速率对TCP流分配速率,以使发送端根据交换机分配的速率对TCP流进行调度。本发明采用共流间和共流内两项调度协调工作,能有效的减少CCT、降低系统开销。
【专利说明】
数据中心网络中TCP共流的调度方法和装置
技术领域
[0001] 本发明设及,具体设及一种数据中屯、网络中TCP共流的调度方法和装置。
【背景技术】
[0002] 数据中屯、网络支撑着多种分布式计算和存储框架(比如,MapReduce ,Spark和 皿FS)。在运些框架中,存在着若干W shuffle ,aggregation和broadcast等形式出现的并行 数据传递过程。运些并行数据传递过程显著地影响着分布式框架的性能。通常而言,一个并 行数据传递过程包含若干个并行的TCP流。一个过程能够被完成当且仅当它里面的所有TCP 流都完成了数据传递。一个并行数据传递过程中的所有TCP流被抽象为一个共流(coflow)。 最近的研究表明减少共流的完成时间(Cof 1OW Comp 1 etion Time,CCT)能大大地提高分布 式框架的性能。
[0003] 已有提高CCT性能(减少CCT)的工作都集中在共流的调度上。典型的共流调度方法 可W分为两类:集中式调度和分布式调度。集中式调度方法的代表为Varys。在Varys中,一 个集中式控制器会实时地收集网络和共流的相关信息,并根据SEBF(Smallest Effective Bottleneck First)的策略为所有的共流计算和指派调度信息。分布式调度方法的代表为 Baraat和D-CAS。分布式调度方法Baraat采用FIFO-LM化irst In First Out with Limited Multiplexing)策略。该策略一方面W先进先出的方式处理共流,另一方面,当它检测到高 优先级的共流已经被传输了较多数据的时候,它会动态地更改复用的级别让优先级低的共 流能够被服务。D-CASW分布式的形式把SEBF简化为子共流级别的化-11^(5加(3〇'1〇讯-Level Minimum Remaining Time First)策略。虽然运些方法都能提高CCT性能,然而它们 都存在着不同的性能瓶颈,比如:系统开销大,队头阻塞,共流语义利用率低,带宽利用率不 足等等。
[0004] 对于WVarys为代表的集中式调度方法,虽然能够取得很好的性能,它的系统开销 却是一个很大的问题,尤其是当网络规模变得较大的时候。Varys的控制器在收集信息,计 算调度结果和下发控制信息运些方面都存在着极其严重的额外开销。在化rys中,平均一次 的调度开销就高达30毫秒。考虑到数据中屯、网络中的传播时延仅仅只有数百微妙,运么大 的开销在实际网络中是难W忍受的。
[0005] 分布式调度方法Baraat,有两个主要的缺点。首先运个基于先进先出的方法严重 地依赖共流的到达顺序。所W该方法在共流到达顺序差别很大的时候,它的性能是极其不 稳定的。其次,当Baraat的复用级别提高之后,它的性能甚至会退化为基于流的公平性调度 策略。而运种调度策略是完全无法优化CCT性能的。对于D-CAS,也有两个主要的缺点。首先, D-CAS在获取共流优先级信息的时候并没有充分使用共流的语义。特别地,D-CAS中用于计 算优先级的子共流运个概念仅仅是共流的一个很小的部分。用子共流来进行优先级的设 置,很有可能会给一个本来优先级不用太高的共流分配一个大很多的优先级,而真正需要 被优先服务的共流却只能获得较小的优先级。其次,D-CAS很容易浪费接收端处的链路资 源。
[0006] 此外,已有的调度策略都无区别地对待同一个共流的中的所有TCP流。然而共流中 的不同流是存在着优先级差异的,运样的调度会一定程度上损害CCT性能。

【发明内容】

[0007] 针对现有技术中的缺陷,本发明提供了一种一种数据中屯、网络中TCP共流的调度 方法和装置,用于解决现有TCP共流调度CCT长、系统开销大的问题。
[000引本发明提出了 一种数据中屯、网络中TCP共流的调度方法,包括:
[0009] 共流控制器将至少一个待调度共流的初始信息通告至发送端和接收端;
[0010] 被通告发送端在接收到所述初始信息时,根据所述初始信息生成每个待调度共流 的初始优先级,并向所述待调度共流的每个TCP流对应的接收端发送第一调度数据包;
[0011] 在检测到所述待调度共流被服务且接收到所述接收端反馈的调度AO(时,根据所 述调度ACK中携带的第一剩余数据生成所述待调度共流的共流优先级,所述第一剩余数据 为与所述发送端关联的发送端剩余的TCP流量;
[0012] 根据所述调度ACK中携带的第二剩余数据生成所述待调度共流的每个TCP流的内 部优先级,所述第二剩余数据为与所述发送端关联的发送端剩余的所述TCP流的数据量;
[0013] 根据所述第一剩余数据量和所述发送端剩余的每个TCP流的数据量生成每个TCP 流的期望速率;
[0014] 通过第二调度数据包将所述共流优先级、所述内部优先级和所述期望速率发送至 交换机;
[0015] 交换机对所述第二调度数据包中的TCP流进行速率分配,并通过接收端的调度ACK 将分配的速率发送至所述发送端,W使所述发送端根据交换机分配的速率对TCP流进行调 度。
[0016] 优选地,所述初始信息包括:初始瓶颈;
[0017] 所述初始瓶颈包括:所有发送端的初始剩余TCP流量中的最大值;
[0018] 相应地,所述根据所述初始信息生成每个待调度共流的初始优先级的步骤具体包 括:
[0019] 根据所述最大的初始剩余TCP流量生成每个待调度共流的初始优先级。
[0020] 优选地,所述初始信息还包括:初始流量信息;
[0021] 相应地,所述将至少一个待调度共流的初始信息通告至发送端和接收端的步骤具 体包括:
[0022] 将所述初始瓶颈发送至所有发送端;
[0023] 向每个发送端发送与所述发送端存在关联关系的节点的初始流量信息;
[0024] 或,向每个接收端发送与所述接收端存在关联关系的节点的初始流量信息;
[0025] 其中,所述节点为发送端或者接收端。
[0026] 优选地,在所述将至少一个待调度共流的初始信息通告至发送端和接收端的步骤 之前,该方法还包括:
[0027] 共流控制器从第一记录表中获取每个节点与其余节点的关联关系,W及每个节点 的ID;
[0028] 相应地,所述将至少一个待调度共流的初始信息通告至发送端和接收端的步骤具 体包括:
[0029] 根据所述关联关系,向每个节点发送与该节点存在关联关系的节点的初始流量信 息。
[0030] 优选地,所述根据所述调度ACK中携带的第一剩余数据生成所述待调度共流的共 流优先级的步骤具体包括:
[0031] 根据所述第一剩余数据获取与该发送端关联的发送端剩余的TCP流量中的最大 值;
[0032] 根据公式一,结合所述剩余的TCP流量中的最大值生成所述待调度共流的共流优 先级;
[0033]
公式一
[0034] 其中,priority为共流优先级,QS为与该发送端关联的发送端剩余的TCP流量中的 最大值,4为可扩展口限值,N*为经验性的参数,passTime为所述待调度共流从到达网络的 时间点至当前时间点的时间长度。
[0035] 优选地,所述根据所述第一剩余数据量和该发送端剩余的每个TCP流的数据量生 成每个TCP流的期望速率的步骤具体包括:
[0036] 根据所述第一剩余数据获取与该发送端关联的发送端剩余的TCP流量中的最大 值;
[0037] 根据公式二和公式=,结合该发送端剩余的每个TCP流的数据量生成每个TCP流的 期望速率;
[0040] 其中,desirecLCCT为所述待调度共流的完成时间,R为服务器的网卡速率, desirecLrate为每个TCP流的剩余流量,d为该发送端剩余的一个TCP流的数据量,
[00;3 引
[0039]
为硬件设备的影响系数。
[0041] 优选地,在所述交换机对所述第二调度数据包中的TCP流进行速率分配的步骤之 前,该方法还包括:
[0042] 交换机获取所述第二调度数据包中每个TCP流的共流优先级、所述内部优先级和 所述期望速率,并根据共流优先级、所述内部优先级和所述期望速率获取所述TCP流的ID;
[0043] 相应地,所述交换机对所述第二调度数据包中的TCP流进行速率分配的步骤具体 包括:
[0044] 在所述第二调度数据包从发送端传递至对应接收端的过程中,沿途的交换机依次 对所述TCP流进行分配速率;
[0045] 并在接收到接收端发送的调度ACK后,获取所述TCP流的ID,并将根据所述ID将分 配给所述TCP流的速率置为沿途交换机分配的速率中的最小值。
[0046] 本发明还提出了一种数据中屯、网络中TCP共流的调度装置,包括:
[0047] 第一接收模块,用于接收至少一个待调度共流的初始信息;
[0048] 第一处理模块,用于根据所述初始信息生成每个待调度共流的初始优先级,并向 所述待调度共流的每个TCP流对应的接收端发送第一调度数据包;
[0049] 第二处理模块,用于在检测到所述待调度共流被服务且接收到所述接收端反馈的 调度AC即寸,根据所述调度ACK中携带的第一剩余数据生成所述待调度共流的共流优先级, 所述第一剩余数据为与所述发送端关联的发送端剩余的TCP流量;
[0050] 第S处理模块,用于根据所述调度ACK中携带的第二剩余数据生成所述待调度共 流的每个TCP流的内部优先级,所述第二剩余数据为与所述发送端关联的发送端剩余的所 述TCP流的数据量;
[0051] 第四处理模块,用于根据所述第一剩余数据量和所述发送端剩余的每个TCP流的 数据量生成每个TCP流的期望速率;
[0052] 发送模块,用于通过第二调度数据包将所述共流优先级、所述内部优先级和所述 期望速率发送至交换机;
[0053] 第二接收模块,用于接收端反馈的调度ACK,并根据所述调度ACK中携带的交换机 分配的速率对每个TCP流进行调度。
[0054] 优选地,所述第二处理模块,具体用于根据所述第一剩余数据获取与该发送端关 联的发送端剩余的TCP流量中的最大值;
[0055] 根据公式一,结合所述剩余的TCP流量中的最大值生成所述待调度共流的共流优 先级;
[0056]
公武一
[0057] 其中,priority为共流优先级,QS为与该发送端关联的发送端剩余的TCP流量中的 最大值,4为可扩展口限值,N*为经验性的参数,passTime为所述待调度共流从到达网络的 时间点至当前时间点的时间长度。
[0058] 优选地,所述第四处理模块,具体用于根据所述第一剩余数据获取与该发送端关 联的发送端剩余的TCP流量中的最大值;
[0059] 根据公式二和公式=,结合该发送端剩余的每个TCP流的数据量生成每个TCP流的 期望速率;
[0060]
[0061 ] 公式吉
[0062] 其中,desirecLCCT为所述待调度共流的完成时间,R为服务器的网卡速率, desirecLrate为每个TCP流的剩余流量,d为该发送端剩余的一个TCP流的数据量,
3硬件设备的影响系数
[0063] 由上述技术方案可知,本发明提出的数据中屯、网络中TCP共流的调度方法,通过采 集发送端剩余的TCP流总的数据量和每个TCP流的数据量,W实现共流间调度和共流内调度 的协调工作,能有效的减少CCT、降低系统开销。
【附图说明】
[0064] 通过参考附图会更加清楚的理解本发明的特征和优点,附图是示意性的而不应理 解为对本发明进行任何限制,在附图中:
[0065] 图1示出了本发明一实施例提供的数据中屯、网络中TCP共流的调度方法的流程示 意图;
[0066] 图2示出了本发明一实施例提供的数据中屯、网络中TCP共流的调度方法中连通图 的流程示意图;
[0067] 图3示了本发明一实施例提供的数据中屯、网络中TCP共流的调度方法中在网络规 模变化时的平均CCT性能对比图;
[0068] 图4示了本发明一实施例提供的数据中屯、网络中TCP共流的调度方法中在网络规 模变化时的90thCCT性能对比图;
[0069] 图5示了本发明一实施例提供的数据中屯、网络中TCP共流的调度方法中在网络负 载变化时平均CCT性能对比图;
[0070] 图6示了本发明一实施例提供的数据中屯、网络中TCP共流的调度方法中在网络负 载变化时的90thCCT性能对比图;
[0071] 图7示了本发明一实施例提供的数据中屯、网络中TCP共流的调度方法中在共流数 量变化时平均CCT性能对比图;
[0072] 图8示了本发明一实施例提供的数据中屯、网络中TCP共流的调度方法中在共流数 量变化时的90thCCT性能对比图;
[0073] 图9示出了本发明一实施例提供的数据中屯、网络中TCP共流的调度装置的结构示 意图。
【具体实施方式】
[0074] 为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例 中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是 本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人 员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0075] 图1为本发明一实施例提供的数据中屯、网络中TCP共流的调度方法的流程示意图, 参照图1,该方法包括:
[0076] 110、共流控制器将至少一个待调度共流的初始信息通告至发送端和接收端;
[0077] 需要说明的是,共流控制器掌管着所有共流的初始信息。当一个共流到达网络的 时候,与此对应的共流控制器将把运个共流的初始信息分发给运个共流对应的发送端和接 收端。
[0078] 120、被通告发送端在接收到所述初始信息时,根据所述初始信息生成每个待调度 共流的初始优先级,并向所述待调度共流的每个TCP流对应的接收端发送第一调度数据包;
[0079] 可理解的是,第一调度数据包即为一种发送端发出的用于收集信息的工具,第一 调度数据包传递至对应接收端后,由接收端将第一调度数据包在沿途收集的数据提取出 来,并通过调度ACK反馈给发送端。
[0080] 130、在检测到所述待调度共流被服务且接收到所述接收端反馈的调度ACK时,根 据所述调度ACK中携带的第一剩余数据生成所述待调度共流的共流优先级,所述第一剩余 数据为与所述发送端关联的发送端剩余的TCP流量;
[0081] 140、根据所述调度ACK中携带的第二剩余数据生成所述待调度共流的每个TCP流 的内部优先级,所述第二剩余数据为与所述发送端关联的发送端剩余的所述TCP流的数据 量;
[0082] 150、根据所述第一剩余数据量和所述发送端剩余的每个TCP流的数据量生成每个 TCP流的期望速率;
[0083] 160、通过第二调度数据包将所述共流优先级、所述内部优先级和所述期望速率发 送至交换机;
[0084] 170、交换机对所述第二调度数据包中的TCP流进行速率分配,并通过接收端的调 度ACK将分配的速率发送至所述发送端,W使所述发送端根据交换机分配的速率对TCP流进 行调度。
[0085] 本发明提出的数据中屯、网络中TCP共流的调度方法,通过采集发送端剩余的TCP流 总的数据量和每个TCP流的数据量,W实现共流间调度和共流内调度的协调工作,能有效的 减少CCT、降低系统开销。
[0086] 本实施例中,初始信息包括:初始瓶颈;
[0087] 所述初始瓶颈包括:所有发送端的初始剩余TCP流量中的最大值;
[0088] 需要说明的是,一个共流的实际完成时间仅仅取决于它当中最慢的TCP流何时完 成数据传递。也就是说,一个共流的瓶颈最终会决定它的CCT。
[0089] 由此,步骤120具体包括:
[0090] 根据所述最大的初始剩余TCP流量生成每个待调度共流的初始优先级。
[0091] 在另一可行实施例中,初始信息还包括:初始流量信息;
[0092] 为了进一步减轻分发信息的负载,共流控制器只通知每个发送端和接收端和它们 在同一个连通图内的所有节点的初始流量信息;
[0093] 由此,在步骤110之前,共流控制器从第一记录表中获取每个节点与其余节点的关 联关系,W及每个节点的ID;
[0094] 相应地,步骤110具体包括:
[00M]将所述初始瓶颈发送至所有发送端;
[0096] 根据所述关联关系,向每个节点发送与该节点存在关联关系的节点的初始流量信 息;其中,节点为发送端或者接收端。
[0097] 也就是说,共流控制器将向每个发送端发送与所述发送端存在关联关系的节点的 初始流量信息;
[0098] 或者,向每个接收端发送与所述接收端存在关联关系的节点的初始流量信息;
[0099] 在一可行实施例中,步骤130具体包括:
[0100] 根据所述第一剩余数据获取与该发送端关联的发送端剩余的TCP流量中的最大 值;
[0101] 根据公式一,结合所述剩余的TCP流量中的最大值生成所述待调度共流的共流优 先级;
[0102]
[0103] 其中,priority为共流优先级,〇s为与该发送端关联的发送端剩余的TCP流量中的 最大值,4为可扩展口限值,N*为经验性的参数,passTime为所述待调度共流从到达网络的 时间点至当前时间点的时间长度。
[0104] 在一可行实施例中,步骤150具体包括:
[0105] 根据所述第一剩余数据获取与该发送端关联的发送端剩余的TCP流量中的最大 值;
[0106] 根据公式二和公式=,结合该发送端剩余的每个TCP流的数据量生成每个TCP流的 期望速率;
[0109] 其中,desirecLCCT为所述待调度共流的完成时间,R为服务器的网卡速率, desire^rate为每个TCP流的剩余流量,d为该发送端剩余的一个TCP流的数据量,
[0107]
[010 引
洲更件设备的影响系数。
[0110] 在步骤170之前,该方法还包括:
[0111] 交换机获取所述第二调度数据包中每个TCP流的共流优先级、所述内部优先级和 所述期望速率,并根据共流优先级、所述内部优先级和所述期望速率获取所述TCP流的ID;
[0112] 相应地,步骤170具体包括:
[0113] 在所述第二调度数据包从发送端传递至对应接收端的过程中,沿途的交换机依次 对所述TCP流进行分配速率;
[0114] 并在接收到接收端发送的调度ACK后,获取所述TCP流的ID,并将根据所述ID将分 配给所述TCP流的速率置为沿途交换机分配的速率中的最小值。
[0115] 图2为本发明一实施例提供的数据中屯、网络中TCP共流的调度方法中连通图的流 程示意图,下面参照图2对进行详细说明:
[0116] ?共流:一组处于同一个并行数据传递过程并且具有相同目标的TCP流的集合。一 个共流的大小被定义为共流中所有TCP流的大小之和。共流的宽度是指共流中TCP流的数 量。共流的长度是共流中最大的TCP流的大小。共流的瓶颈被定义为共流设及到的所有节点 的最大数据处理量(包含所有发送端需要发送的数据和所有接收端需要接受的数据)。
[0117] ?无向图:由于一个TCP连接包含前向的数据传输和后向的ACK反馈传输,一个TCP 流可W被看成一条无向边。考虑到运个情况,一个共流和它相关的服务器可W被抽象为一 个无向图G = <V,E〉。所有的发送端和接收端组成了点集合V,所有的TCP流组成了边集E。
[0118] ?连通图:根据图的连通性,一个无向图可W被划分为若干个连通子图。每个连通 的部分就是一个连通图。
[0119] ?部分共流(PartialCof low): -个部分共流是TCP流的集合。其中,运些TCP流可 W被抽象为同一个连通图中所有的边。
[0120] 图2中的fi为第i个TCP流,共19个TCP流。所有的节点和边组合成为了无向图。该无 向图被分为了 =个连通图。与此相应地,一个共流被分成了 =个部分共流,其中,fi-f 12为一 个部分共流,f 13-f 15为一个部分共流,f 16-f 19为一个部分共流;
[0121] 基于如上定义和示例,我们可W总结出W下关系:
[0122] ?-个共流对应一个无向图;一个部分共流对应一个连通图。
[0123] ?每个共流包含一个或多个部分共流。与此对应地,一个无向图包含一个或多个 连通图。
[0124] ?信息可W通过同一个部分共流中的TCP流,在对应的连通图内的服务器间相互 传递。
[0125] 由此本发明给出另两个定义。一个共流的信息表示运个共流中,所有发送端要发 送的属于运个共流的总共剩余流量大小,所有接收端要接收的属于运个共流的总共剩余流 量大小。同样地,一个部分共流的信息意味着运个部分共流中,所有对应的发送端要发送的 属于运个部分共流的总共剩余流量,所有对应的接收端要接受的属于运个部分共流的总共 剩余流量大小。很显然的是,一个部分共流信息是它对应的共流信息的子集。
[01 %]基于上面的定义,本发明给出CGM-PS的框架,CGM-PS方法被分为两个部分:共流间 调度和共流内调度。共流间调度指的是给不同的共流指派不同的优先级,而共流内调度指 的是给每个共流中的TCP流分配流层面的优先级并指定发送速率。
[0127]下面对共流间调度的原理进行详细说明:
[01%]共流间调度策略命名为P-SEBFdP-S邸F由S部分组成:信息获取,策略生成W及调 度执行。其中:
[0129] ?信息获取:每个发送端W半分布式的形式收集共流的信息。也就是说,在一个共 流被网络服务之前,每个发送端从集中式共流控制器那儿去获取运个共流的信息(运个控 制器可W是SDN控制器)。当运个共流被网络服务后,每个发送端通过和在同一个连通图中 的所有发送端和接收端相互交互信息去获取它所在的部分共流的信息。运个信息获取过程 每个RlT将会被执行一次。
[0130] ?策略生成:根据获取到的信息W及共流间调度策略,每个发送端为它上所有的 共流本地地计算优先级。值得注意的是,如果发送端仅仅只获取到部分共流的信息,它会根 据运个信息计算部分共流层面的优先级。然后它会把运个优先级近似当成运个共流的优先 级。也就是说,在我们的方法中,部分共流层面的优先级被当成了共流层面的优先级。运个 过程会被周期性地执行。周期长度为S。
[0131] ?调度执行:每个发送端给共流中的每个TCP流分配优先级。具有较高共流优先级 的流会被率先调度。具有相同共流优先级的TCP流的调度顺序W及每个流的发送速率会在 共流内调度部分进行介绍。
[0132] 下面对共流间调度的原理进行详细说明:
[0133] 共流内调度策略被命名为FP-MDFS。该策略由两部分组成:流优先级生成W及流速 率分配:
[0134] ?流优先级生成:每个发送端根据共流优先级W及关于运个流的一些本地信息, 给每个TCP流分配流优先级。运个过程将会在运个发送端结束共流间调度中的策略生成步 骤后被执行。
[0135] ?流速率分配:首先,每个发送端为它上面的每个流计算一个期望速率。其次,每 个发送端向TCP流传播路径中的沿途交换机通告流优先级和期望速率。然后,每个交换机为 运个流指定一个可接受的速率。接着,接收端把运些关于可接受速率的反馈信息通过ACK传 递给发送端。最终,发送端根据运些反馈信息更新流的发送速率。运个过程每个RTT重复一 次。
[0136] 下面对共流间调度和共流内调度的算法实现原理进行详细说明:
[0137] 在P-SEBF中,当一个共流到达网络的时候,共流控制器会向运个共流的所有发送 端通告有关运个共流的初始信息。当共流被网络服务前,运个离线信息是有效的。根据运个 信息,每个发送端可W获得运个共流的共流优先级。运意味着共流间调度策略在共流被传 输服务前是工作在集中调度模式的。
[0138] 然而,当运个共流中的部分TCP流被传输后,即被网络服务后,运个共流的初始信 息将变得无效了。为了在不影响网络性能的前提下,减少系统开销,本发明采用在连通图模 型的基础上,让处于同一个连通图内部的服务器可W通过梢带信息的方式进行消息共享。 运也就意味着,当共流被网络传输后,共流间调度策略工作在分布式模式。在该模式中,每 个发送端获取到部分共流的信息。通过计算部分共流优先级来获取共流优先级。另外,用运 种方式,没有额外的TCP流被用来进行信息交换,运大大减小了网络的负载。
[0139] 表1为关键符号定义表,下面参照表1对共流间调度和共流内调度的实现过程进行 详细说明,亲1中的发谋端巧按收端挽可Pi为服各器:
[0140]
[0141] 表1
[0142] 共流控制器操作:共流控制器掌管着所有共流的初始信息。当一个共流到达网络 的时候,与此对应的共流控制器需要把运个共流的初始信息分发给运个共流对应的发送端 和接收端。为了进一步减轻分发信息的负载,共流控制器只通知每个发送端和接收端和它 们在同一个连通图内的所有节点的初始流量信息。运个分发信息的形式是化iM,DiM)a = I,2....)。此外,控制器会通知所有的发送端运个共流的初始瓶颈(LM,DM)。控制器把运些 信息梢带在通告数据包的头部,并把运些通告数据包发送给对应的发送端和接收端。运个 操作也就是我们方法的集中式部分。
[0143] 发送端操作:共流的每个发送端会为运个共流维护一个共流变量表。运个表中包 含1,1,化15,015)。= 1,2...,1),化5,05)和邑1^'5(1 = 1,2,...1^ = 1,2,...,扣。发送端 会通过每个TCP流每隔一个RlT发送一个调度数据包。如果运个TCP流本身有发送速率,那么 运个调度包就是一个携带了调度信息头部的正常的数据包。运里调度信息头部是用来记录 调度相关信息的。如果运个TCP流本身的发送速率为0,我们使用一个只有调度信息头部但 没有数据的TCP包,把运个包作为调度数据包进行信息交互。类似地,一个调度ACK是一个梢 带有调度头部的ACK包。
[0144] 发送端的操作如下所示。
[0145] 当一个新的共流到达网络的时候,更新运个共流的初始信息:
[0146] 1.1当接收到共流控制器发送的化iM,DiM)(i = l,2. ..,1)和(LM,DM)的时候,把运 些值转化为本地信息化iM,DiM)a = l,2. . .,1)和(LM,DM),并更新I和J。
[0147] 1.2把数组[gi,jS] (i = 1,2,. . . I; j = 1,2,. . .,J)设置为全0。把P设为0。
[0148] 步骤1.每过一个RTT,给每个TCP流的接收端,发送一个调度包。
[0149] 2.1.获取共流ID C,本地剩余数据量D,流ID j',服务器ID i'。
[0150] 2.2.如果D比Di'S小,更新Di'S并设置[gi',j'引为1。
[0151] 2.3.对于所有i,如果[gi,j'S]等于1,把化iS,DiS)添加到调度包头并设置[gi,j' S]为0。
[0152] 2.4.如果调度包头非空,发送一个调度数据包给运个流的接收端。
[0153] 步骤2.当收到一个调度ACK,更新对应共流的本地信息:
[0154] 3.1 获得共流ID C。
[01W] 3.2把所有关于化iR,DiR)(上标R表示运个变量是由接收端维护的)的反馈信息放 进集合T中。
[0156] 3.3对于1'中的每对化11?,011〇,如果0巧比015小,设置015为011?,^1^5]〇' = 1, 2,...,扣为1。
[0157] 步骤3.每隔5,为运个发送端上的所有共流计算共流层面的优先级:
[0158] 4.1从本地共流集合中移除已经完成的共流。
[0159] 4.2对于每个共流,根据运个共流到目前为止是否被服务更新P的值。
[0160] 4.3对于每个共流C,如果P等于0,保持化S,DS)不变并把共流优先级设置为DS;如 果P等于1,设置DS为DiS(i = 1,2,. . .,I)的最大值,LS为对应的LiS,设置它的共流优先级为 DS。运是P-沈BF的核屯、步骤。
[0161 ] 4.4使用公式(1)来调整共流C的共流优先级。
[0162] 步骤4.把共流优先级赋予给所有TCP流。
[0163] 在步骤4.3中,当共流不被网络服务的时候(也就是P等于0),发送端使用被通告的 瓶颈DM作为共流的瓶颈,然后根据运个值计算共流优先级;否则,发送端根据部分共流的瓶 颈(DiS的最大值)来计算部分共流优先级并把运个优先级近似为共流优先级。
[0164]

[0165] 然而运种基于大小的调度策略会导致某些大的共流被饿死。所W,为了减轻运个 问题,我们调整P-SEBF为一个关于时间的函数来重新计算共流优先级。其中,口是共流的平 均到达间隔。N*是一个经验性的参数,它反映了本共流需要等待多少其他共流。d)是一个可 扩展口限值。通过大量的实验,我们发现把N*设置为5~20,(1)设置为0.05~0.2可W取得很 好的性能。从(1)中我们可W看到,随着时间流逝,共流优先级会提高,运会有效地缩短大共 流的完成时间。也就是说,我们的共流间调度策略是不会饿死大共流的。
[0166] 接收端操作:接收端的操作和发送端很类似。在开始,每个接收端会被通知共流的 初始信息。它便开始维护运些信息。运和发送端Stepl中的操作是一样的。当它接收到一个 调度数据包,一个与发送端step3中类似的操作将会被促发。然后它便会进入如发送端 St邱2中类似的本地过程。在运个过程中,它将会发送一个调度ACK而不是一个调度数据包。 在运里我们就展示运些操作的细节。此外接收端没有step4和Steps。简而言之,接收端的核 屯、思想是用半分布式的形式,帮助发送端来收集信息。
[0167] 我们共流内调度策略是一个启发式算法,该算法基于W下两点认识:
[0168] ?-个共流的瓶颈对于共流的完成时间有很强的影响作用。所W,对于同一个共 流中的所有TCP流而言,我们应当优先调度传播路径在共流瓶颈上的流。
[0169] ?我们仅仅需要给共流中的所有流分配合适的速率来保证所有流在最慢的那条 流之前完成数据传递。
[0170] 我们把运个共流内调度策略命名为FP-MDFS。在FP-MDFS中,我们根据一个流的传 播路径是否在它所在共流的瓶颈链路上给运个流分配一个内部优先级。根据内部优先级和 共流优先级,我们设计了流优先级。具有同样的流优先级的流会被划分到一个分类中去。此 夕h我们给每个TCP流分配一个期望速率。FP-MD!^试着给TCP流分配一个合适的速率。分配 的运个速率尽量让比运个流优先级更高和一样的所有流都能够满足需求;否则的话,FP-MDFS将会使用平均分配的方式来分配一个合适的速率。
[0171] 为了实现FP-MDFS,我们让发送端,交换机和接收端W分布式的形式协同工作。接 下来,我们介绍所有相关网元的操作。
[0172] 发送端操作:每个发送端为它上的每个TCP流计算一个流的优先级和一个期望速 率。流优先级被设计为一个二元组。_111*日'^_111*'日),运里1^_111*日'是共流优先级,口_ intra是内部优先级,也是一个标志位。发送端查看共流间调度的本地消息。如果它的传输 路径在运个共流的瓶颈上,把P_intra设置为0;否则把它设为1。我们说,当且仅当时,P_ 1]1161'1沖_;[]116'2或者口_;[]1161'1=]^_;[]116'2且]^_;[]1化日1<口_;[]1化日2的时候,。_;[]1161'1,口_ intra2)是一个比(P_inte;r ,P_intra)更高的优先级。
[0173] 值得注意的是一个共流的实际完成时间仅仅取决于它当中最慢的TCP流何时完成 数据传递。也就是说,一个共流的瓶颈最终会决定它的CCT。一个共流期望的完成时间可W 如下得到:
[0174] (?)
[0177]
[0175] 运里R表示服务器的网卡速率。[0176] 根据运个,我们为TCP流计算了一个期望的发送速率:

[017引其中,d是运个TCP流的剩余大小。
[0179] 当发出一个调度数据包的时候,发送端会添加八个额外的参数到运个数据包的头 部。在运八个参数中,一个为流优先级,一个为当前的期望发送速率,其余六个预留给至多6 个中间交换机来分配速率。运六个参数被初始化为R。
[0180] 交换机操作:每个交换机把每一个流优先级映射为一个类。它为每个输出端口中 的每个类维护四个变量。它们分别是Clas s_id ,Demand ,Alloc ,Fl ow_num。运里Demand表不 运个类中所有流总的期望速率,Alloc表示为运些流分配的总的速率,Flow_num是流的数 目。
[0181 ]交换机工作在如下几个步骤:
[0182] 步骤1.当收到一个调度包,更新本地信息并分配一个合适的速率给运个TCP流:
[0183] 1.1获取速率相关的参数和流优先级。获得运个流的Class_id。
[0184] 1.2把运屯个关于速率的参数的最小值当成运个流的期望速率。更新Demand和 Flow_num〇
[0185] 1.3通过累加所有具有更高优先级类的的Alloc来计算tot_alloc。用输出链路容 量减去 tot_al Ioc 得到 avai l_band。
[Om] 1.4如果avail_bancl比0小,分配0给运个流;如果比Demand大,分配它期望的速率; 否则分1
合运个流。
[0187] 1.5更新Alloc。添加分配的速率到调度包的包头,并把调度包向下一跳转发。
[0188] 步骤2.当接收到一个ACK调度包的时候,更新本地信息。
[0189] 2.1.获取所有速率相关的参数和流优先级。获得TCP流的Class_id。
[0190] 2.2.把给运个流分配的速率设置为运屯个速率相关参数的最小值,并更新Alloc。 然后把运个数据包向下一跳传递。
[0191] 接收端操作:当接收到一个调度包的时候,接收端取出包头的八个参数,把运八个 参数添加到调度ACK的头部,并发出ACK。
[0192] 下面讨论下我们调度算法的系统开销。
[0193] 根据W上设计,一个调度头部最多包含18~78字节。对于共流间调度策略,我们使 用1字节来确定有多少对化iS,DiS)或化iR,DiR)需要被传输,并且我们让运个固定在范围0 到20之间。一对的化S,DS)占用3个字节。也就是说,我们使用1~61字节来编码共流间调度 相关的参数。对于共流内调度,我们使用17字节进行编码。我们把流优先级设置为2字节。我 们把速率相关的参数也编码为2字节。此外,我们需要一个额外的字节来保持交换机的编 号一一当每个交换机传递完调度包/ACK到下一跳的时候把它加1。
[0194] 通告包的头部需要1~64字节的额外开销。运是由于除去化iM,DiM)需要的1~61 字节,共流控制器需要传递一对(LM,DM)给共流的所有发送端。
[0195] 总的来说,调度包、调度ACK和通告包平均需要48,48,33个额外的字节。运个开销 比其他的分布式方法如Baraat和D-CAS要高一点。运两类方法只需要20~30字节的额外开 销。但是它却比集中式方法如化rys低很多。化rys中需要大量额外的TCP流来进行调度。
[0196] 对于共流间调度,在共流传递的开始,共流控制器向服务器传播消息运一过程会 产生2~3个RlT的调度时延。其中1~2个RlT用来建立TCP连接。紧接着,根据前面的分析,连 通图内的消息传播需要大概几个RTT(往往小于10个)。对于共流内调度,调度时延是1~2个 RTT。
[0197] 总的来说,系统总的调度时延最多为15个RTT。运个值通常比1毫秒要小,运比起 化rys的30ms要小很多。
[0198] 综上所述,1、本发明所提出的CGM-PS是一种半分布式的调度方法,它既克服了集 中式方法系统开销大的缺点,也能很好的解决分布式方法性能较差的问题;
[0199] 2XGM-PS具有抢占性,非饿死,工作保持等特点,运些特点都能优化共流的CCT性 能;
[0200] 3、CGM-PS的共流间调度算法P-SEBF基于部分共流运一新的概念,W半分布式的形 式近似地实现了集中式方法才能达到的最优调度策略;
[0201 ] 4、CGM-PS的共流内调度算法FP-MDFS创新性地提出了共流中不同流不同优先级的 思想,并让网络中交换机协同给每个流分配最合理的发送速率,运对于CCT的性能优化有着 重要的作用。
[0202] 5XGM-PS在不同的网络规模、网络负载和共流数量的情况下,它的CCT性能都优于 其他对比方法。
[0203] 图3和图4分别示出了在网络规模变化时本申请提出的CGM-PS与现有技术中的D-CAS ,Baraat,化巧S和最普通的基于流的CCT性能的对比图;
[0204] 参照图3和图4可知,为了验证本方法的具体效果,本发明使用基于trace的仿真器 来验证CGM-PS的性能。其中,本发明对比了D-CAS,Baraat,Varys和最普通的基于流的公平 性方法。
[0205] 设置:本发明根据共流的宽度和长度把所有的共流划分为四个类型:窄短型,窄长 型,宽短型,宽长型。本发明认为一个共流包含低于50条流的时候,它被当成窄的。本发明把 共流的长度的上限设置为1000MB。一个共流被认为是短的当且仅当它的长度小于10MB。每 类共流的占比情况如下:52% ,16% ,15%和17%。
[0206] 所有共流的到达时间服务满足参数的A泊松分布。本发明设置 其中 avg化是平均的网络负载,C是网络容量,avgCS表示平均的共流大小。通过调整平均网络负 载avg化,本发明可W模拟不同的到达速率。
[0207] 在本发明的仿真中,拓扑被抽象为了一个连接所有服务器的非阻塞交换机模型。 本发明仅仅关注服务器到交换机之间的接入链路。接入链路带宽被设置为IGbps。
[020引参数设置:在CGM-PS中,本发明设置5为100ms,d)为0.1,N*为10。对于D-CAS,我们 设置T为13,6为1001113,*11'631101(1¥01皿6为謹8。对于8曰^曰*,本发明设置它的大流识别的上 限为80th百分比的共流大小。在化rys中,本发明设置T为Is,S为100ms。对于每组参数,本发 明做了 10次仿真,去掉最大值和最小值后再对剩余值取平均。
[0209]在本部分,本发明把共流的大小固定为200,平均网络负载设置为1。通过改变集群 中服务器的数量,本发明探究集群/网络规模对CCT的影响。由图3和图4可W看到,无论是平 均值还是90th百分比,CGM-PS都可W取得最小的CCT。同时,随着网络规模的提高,CGM-PS的 曲线都先增加到某个点然后再下降。运是由于当网络规模变得足够大的时候,网络中会有 足够的冗余链路,运会加速共流的传输。
[0210] 图5和图6分别示出了在网络负载变化时本申请提出的CGM-PS与现有技术中的D-CAS ,Baraat,化巧S和最普通的基于流的CCT性能的对比图;
[0211] 在本部分,共流数量被固定为200,集群中服务器的数量被设置为50。本发明让网 络负载从0.5增长到2.5。仿真结果表明,对于所有的调度方法,网络负载越大,CCT也会越 大。然而,在所有方法中,CGM斗S仍然能够取得最小的平均和90 th百分比CCT。
[0212] 图5和图6分别示出了在共流数量变化时本申请提出的CGM-PS与现有技术中的D-CAS ,Baraat,化巧S和最普通的基于流的CCT性能的对比图;
[0213] 在本部分,本发明设置集群中服务器的数量为50,平均网络负载为1。本发明把共 流数量从50增长到400来考察共流数量对CCT性能的影响。由图5和图6可知,几乎所有的曲 线都会随着共流数量增加而增长。运是由于共流数量的增加会减少平均的可用网络带宽资 源。然而,CGM-PS的平均和90th百分比的曲线都只是轻微的增长并且它们的曲线始终都在 其他方法的曲线的下面。运意味着本发明的CGM-PS方法在共流数量改变的情况下性能很好 很稳定。
[0214] 对于方法实施方式,为了简单描述,故将其都表述为一系列的动作组合,但是本领 域技术人员应该知悉,本发明实施方式并不受所描述的动作顺序的限制,因为依据本发明 实施方式,某些步骤可W采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉, 说明书中所描述的实施方式均属于优选实施方式,所设及的动作并不一定是本发明实施方 式所必须的。
[0215] 图9为本发明一实施例提供的数据中屯、网络中TCP共流的调度装置的结构示意图, 参照图9,该装置包括:
[0216] 第一接收模块910,用于接收至少一个待调度共流的初始信息;
[0217] 第一处理模块920,用于根据所述初始信息生成每个待调度共流的初始优先级,并 向所述待调度共流的每个TCP流对应的接收端发送第一调度数据包;
[0218] 第二处理模块930,用于在检测到所述待调度共流被服务且接收到所述接收端反 馈的调度AC即寸,根据所述调度ACK中携带的第一剩余数据生成所述待调度共流的共流优先 级,所述第一剩余数据为与所述发送端关联的发送端剩余的TCP流量;
[0219] 第S处理模块940,用于根据所述调度ACK中携带的第二剩余数据生成所述待调度 共流的每个TCP流的内部优先级,所述第二剩余数据为与所述发送端关联的发送端剩余的 所述TCP流的数据量;
[0220] 第四处理模块950,用于根据所述第一剩余数据量和所述发送端剩余的每个TCP流 的数据量生成每个TCP流的期望速率;
[0221] 发送模块960,用于通过第二调度数据包将所述共流优先级、所述内部优先级和所 述期望速率发送至交换机;
[0222] 第二接收模块970,用于接收端反馈的调度ACK,并根据所述调度ACK中携带的交换 机分配的速率对每个TCP流进行调度。
[0223] 本发明提出的数据中屯、网络中TCP共流的调度方法,通过采集发送端剩余的TCP流 总的数据量和每个TCP流的数据量,W实现共流间调度和共流内调度的协调工作,能有效的 减少CCT、降低系统开销。
[0224] 本实施例中,第二处理模块930具体用于根据所述第一剩余数据获取与该发送端 关联的发送端剩余的TCP流量中的最大值;
[0225] 根据公式一,结合所述剩余的TCP流量中的最大值生成所述待调度共流的共流优 先级;
[0226]
公式一
[0227] 其中,priority为共流优先级,DS为与该发送端关联的发送端剩余的TCP流量中的 最大值,4为可扩展口限值,N*为经验性的参数,passTime为所述待调度共流从到达网络的 时间点至当前时间点的时间长度。
[0228] 本实施例中,第四处理模块950,具体用于根据所述第一剩余数据获取与该发送端 关联的发送端剩余的TCP流量中的最大值;
[0229] 根据公式二和公式=,结合该发送端剩余的每个TCP流的数据量生成每个TCP流的 期望速率;
[0232] 其中,desirecLCCT为所述待调度共流的完成时间,R为服务器的网卡速率, desirecLrate为每个TCP流的剩余流量,d为该发送端剩余的一个TCP流的数据量,
[0230]
[0231]
对硬件设备的影响系数。
[0233] 虽然结合附图描述了本发明的实施方式,但是本领域技术人员可W在不脱离本发 明的精神和范围的情况下做出各种修改和变型,运样的修改和变型均落入由所附权利要求 所限定的范围之内。
【主权项】
1. 一种数据中心网络中TCP共流的调度方法,其特征在于,包括: 共流控制器将至少一个待调度共流的初始信息通告至发送端和接收端; 被通告发送端在接收到所述初始信息时,根据所述初始信息生成每个待调度共流的初 始优先级,并向所述待调度共流的每个TCP流对应的接收端发送第一调度数据包; 在检测到所述待调度共流被服务且接收到所述接收端反馈的调度ACK时,根据所述调 度ACK中携带的第一剩余数据生成所述待调度共流的共流优先级,所述第一剩余数据为与 所述发送端关联的发送端剩余的TCP流量; 根据所述调度ACK中携带的第二剩余数据生成所述待调度共流的每个TCP流的内部优 先级,所述第二剩余数据为与所述发送端关联的发送端剩余的所述TCP流的数据量; 根据所述第一剩余数据量和所述发送端剩余的每个TCP流的数据量生成每个TCP流的 期望速率; 通过第二调度数据包将所述共流优先级、所述内部优先级和所述期望速率发送至交换 机; 交换机对所述第二调度数据包中的TCP流进行速率分配,并通过接收端的调度ACK将分 配的速率发送至所述发送端,以使所述发送端根据交换机分配的速率对TCP流进行调度。2. 根据权利要求1所述的方法,其特征在于,所述初始信息包括:初始瓶颈; 所述初始瓶颈包括:所有发送端的初始剩余TCP流量中的最大值; 相应地,所述根据所述初始信息生成每个待调度共流的初始优先级的步骤具体包括: 根据所述最大的初始剩余TCP流量生成每个待调度共流的初始优先级。3. 根据权利要求2所述的方法,其特征在于,所述初始信息还包括:初始流量信息; 相应地,所述将至少一个待调度共流的初始信息通告至发送端和接收端的步骤具体包 括: 将所述初始瓶颈发送至所有发送端; 向每个发送端发送与所述发送端存在关联关系的节点的初始流量信息; 或,向每个接收端发送与所述接收端存在关联关系的节点的初始流量信息; 其中,所述节点为发送端或者接收端。4. 根据权利要求3所述的方法,其特征在于,在所述将至少一个待调度共流的初始信息 通告至发送端和接收端的步骤之前,该方法还包括: 共流控制器从第一记录表中获取每个节点与其余节点的关联关系,以及每个节点的 ID; 相应地,所述将至少一个待调度共流的初始信息通告至发送端和接收端的步骤具体包 括: 根据所述关联关系,向每个节点发送与该节点存在关联关系的节点的初始流量信息。5. 根据权利要求1所述的方法,其特征在于,所述根据所述调度ACK中携带的第一剩余 数据生成所述待调度共流的共流优先级的步骤具体包括: 根据所述第一剩余数据获取与该发送端关联的发送端剩余的TCP流量中的最大值; 根据公式一,结合所述剩余的TCP流量中的最大值生成所述待调度共流的共流优先级;其中,priority为共流优先级,DS为与该发送端关联的发送端剩余的TCP流量中的最大 值,Φ为可扩展门限值,N*为经验性的参数,passTime为所述待调度共流从到达网络的时间 点至当前时间点的时间长度。6. 根据权利要求5所述的方法,其特征在于,所述根据所述第一剩余数据量和该发送端 剩余的每个TCP流的数据量生成每个TCP流的期望速率的步骤具体包括: 根据所述第一剩余数据获取与该发送端关联的发送端剩余的TCP流量中的最大值; 根据公式二和公式三,结合该发送端剩余的每个TCP流的数据量生成每个TCP流的期望 速率;其中,desirecLCCT为所述待调度共流的完成时间,R为服务器的网卡速率,desirecL rate为每个TCP流的剩余流量,d为该发送端剩余的一个TCP流的数据量 硬件设备的影响系数。7. 根据权利要求1所述的方法,其特征在于,在所述交换机对所述第二调度数据包中的 TCP流进行速率分配的步骤之前,该方法还包括: 交换机获取所述第二调度数据包中每个TCP流的共流优先级、所述内部优先级和所述 期望速率,并根据共流优先级、所述内部优先级和所述期望速率获取所述TCP流的ID; 相应地,所述交换机对所述第二调度数据包中的TCP流进行速率分配的步骤具体包括: 在所述第二调度数据包从发送端传递至对应接收端的过程中,沿途的交换机依次对所 述TCP流进行分配速率; 并在接收到接收端发送的调度ACK后,获取所述TCP流的ID,并将根据所述ID将分配给 所述TCP流的速率置为沿途交换机分配的速率中的最小值。8. -种数据中心网络中TCP共流的调度装置,其特征在于,包括: 第一接收模块,用于接收至少一个待调度共流的初始信息; 第一处理模块,用于根据所述初始信息生成每个待调度共流的初始优先级,并向所述 待调度共流的每个TCP流对应的接收端发送第一调度数据包; 第二处理模块,用于在检测到所述待调度共流被服务且接收到所述接收端反馈的调度 ACK时,根据所述调度ACK中携带的第一剩余数据生成所述待调度共流的共流优先级,所述 第一剩余数据为与所述发送端关联的发送端剩余的TCP流量; 第三处理模块,用于根据所述调度ACK中携带的第二剩余数据生成所述待调度共流的 每个TCP流的内部优先级,所述第二剩余数据为与所述发送端关联的发送端剩余的所述TCP 流的数据量; 第四处理模块,用于根据所述第一剩余数据量和所述发送端剩余的每个TCP流的数据 量生成每个TCP流的期望速率; 发送模块,用于通过第二调度数据包将所述共流优先级、所述内部优先级和所述期望 速率发送至交换机; 第二接收模块,用于接收端反馈的调度ACK,并根据所述调度ACK中携带的交换机分配 的速率对每个TCP流进行调度。9. 根据权利要求8所述的装置,其特征在于,所述第二处理模块,具体用于根据所述第 一剩余数据获取与该发送端关联的发送端剩余的TCP流量中的最大值; 根据公式一,结合所述剩余的TCP流量中的最大值生成所述待调度共流的共流优先级;其中,priority为共流优先级,DS为与该发送端关联的发送端剩余的TCP流量中的最大 值,Φ为可扩展门限值,N*为经验性的参数,passTime为所述待调度共流从到达网络的时间 点至当前时间点的时间长度。10. 根据权利要求9所述的装置,其特征在于,所述第四处理模块,具体用于根据所述第 一剩余数据获取与该发送端关联的发送端剩余的TCP流量中的最大值; 根据公式二和公式三,结合该发送端剩余的每个TCP流的数据量生成每个TCP流的期望 速率;其中,desirecLCCT为所述待调度共流的完成时间,R为服务器的网卡速率,desirecL rate为每个TCP流的剩余流量,d为该发送端剩余的一个TCP流的数据量 硬件设备的影响系数。
【文档编号】H04L12/851GK105827545SQ201610251502
【公开日】2016年8月3日
【申请日】2016年4月21日
【发明人】张舒黎, 张棪, 孙继燕, 曹玖玥, 陈鑫
【申请人】中国科学院信息工程研究所
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1