用于在时间敏感网络中基于流的调度、基于类别的调度以及帧抢占的最坏情况分析的基于组件的方法与流程

文档序号:36389520发布日期:2023-12-15 06:05阅读:37来源:国知局
用于在时间敏感网络中基于流的调度的制作方法

本发明涉及一种用于在时间敏感网络中基于流的调度、基于类别的调度以及帧抢占的最坏情况分析的基于组件的方法。


背景技术:

1、首先,定义在本技术中考虑的系统,所述系统包括相关的tsn网络组件、机制和关键假设。随后介绍:如何对流从源至目标的延迟进行建模。为了表示延迟模型是有意义的,讨论终端设备和交换机的引起延迟的组件。交换机和转发模型遵循ieee标准。

2、将拓扑建模为有向图节点表示终端设备和交换机。中的边描述出口端口。因此,在图中将每个以太网链路表示为两个单向的链路。将所有流的集合表示为s是描述流的特征的元组:亦即流id(sid)、传输类型(spcp)、源目标路径以及帧大小(ssize∈[64,1500])(以字节为单位)。

3、接下来介绍基于在ssource与starget之间流的延迟的延迟模型。在描述延迟模型时区分终端主机(ssource,starget)与中间跃点(交换机)。仅仅对网络延迟进行建模且因此不考虑在ssource和starget上的应用延迟。此外基于如下,即,源主机具有适合的机制,以便在规划的发送时刻发出流。

4、中间跃点必须接收、处理帧且将其转发给下一跃点。图1提供关于延迟的概览,其在下文中根据多个网络参与方1、2、3、4的数据流被讨论。帧的接收包含传播延迟5与传输延迟6。传播延迟5描述在发送侧上发送信号与在接收侧上接收该信号之间的时间t。形成的传播延迟5与在链路介质(例如铜、玻璃纤维)内的信号传播速度和链路的长度有关。为了简化模型,假设:传播延迟5被提供为边特征:dprop(e),e∈ε。传输延迟6说明在接收器处在接收帧的第一位与最后一位之间的时间t。所述传输延迟因此与链路速度和帧的大小有关。假设:链路速度提供为边特征:link_speed(e),e∈ε,因此将传输延迟6如下计算:为了计算帧阻塞链路的时间,仅仅考虑dtrans(e,size)是不够的,因为以太网指定了所谓的帧间间隔(ifg)。ifg说明:在两个连续的传输之间的链路13必须停止多长时间,例如在1gbit/s的情况下的12b或96ns。

5、接下来的步骤的开始与交换机行为有关。交换机在此是特殊的网络参与方。在这项工作中,区分两种类型的行为:符合ieee的存储并转发(参见图3)和直通(参见图4)转发。存储并转发行为表示:交换机在开始处理帧之前获得完整的帧。相反,在直通转发的情况下交换机在开始处理之前仅仅等待接收帧报头。例如假设:交换机必须接收第一个24b——由前导码和包括vlan标签的以太网报头组成一一以便进行转发决定。此外应用所谓的延迟的直通机制,亦即如果帧由于阻塞的出口端口必须等待,那么一旦又释放出口端口,那么帧的传输直接开始。相反,其他直通实现基于如下,即,如果无法直接转发帧,那么对于该帧在当前交换机上切换到存储并转发行为上。

6、在接收之后,帧在交换中心(vermittlungsstelle)经过不同的处理阶段,例如滤波、统计检测以及转发。在图2中,介绍了简化的交换机模型,该模型减少到对于延迟计算相关的组件,该模型包括具有输入点(入口)16的交换机逻辑器件10。因为交换机的处理阶段通常在硬件中实现,所以形成的延迟实际上是不变或受限的,从而可以假定最大值。将该延迟称为处理延迟7且将其建模为节点特征:在中继阶段,交换机读取帧的目标地址和vlan标签,以便确定出口端口17。每个出口端口17包含直至八个外出队列q0...q7。基于在帧的vlan标签中的pcp值(优先级代码点)和所配置的分配关系,交换器将帧分配给外出等待队列q0...q7之一。外出等待队列q0...q7中的每个具有传输选择算法(tsa)和门c。tsa确定:等待队列是否包含考虑用于传输的帧。已知的tsa实现是严格的优先级和基于信用的整形器(cbs)。在这种工作中应用严格的优先级机制,其总是在等待队列不为空的情况下返回一个帧。这种机制称为严格的优先级排队,因为将这种机制与传输选择(ts)——该传输选择按递减的优先级查询等待队列——相组合导致选择最高的非空的等待队列。在具有高优先级的帧到达不久之前,如果ts于是选择具有低的优先级的帧,具有低优先级的帧使得具有高优先级的帧在最坏情况下延迟了最大大小的帧的传输延迟。

7、为了改善最坏情况延迟估计,ieee已经对时间感知整形器(tas)进行标准化。已经提及的门c是tas的核心组件。每个等待队列具有门c,该门分离tsa与ts。打开的门释放相应的队列,而关闭的门阻止队列。因此只允许已释放的队列的帧以用于传输。为了改变门状态,交换机实施门控制列表(gcl)。gcl记录是由间隔和门状态组成的元组。间隔确定给出的门状态有效的持续时间。通过将具有低优先级的等待队列阻止特定时间,可以防止:具有高优先级的帧被具有低优先级的帧干扰。因此,gcl的配置基本上对应于tdma的配置。为了防止传输过冲到门关闭间隔中,只有在保证传输结束处于门关闭之前时才允许帧用于传输。在此有两种策略以用于确定:帧是否可以在门关闭之前被传输:一方面定义所谓的保护带。保护带与传输mtu大小的帧所需要的时间一样长。该保护带前置于门关闭事件,且在保护带内拒绝传输的开始。因此,如果门关闭,那么没有帧能够处于传输中。第二,长度感知调度(las)防止如下帧传输的开始,所述帧无法在门关闭之前被结束。las检查帧长度,且如果传输将延伸到下一门间隔中,那么拒绝传输。保护带可容易地实现且即使帧大小在传输开始未知(例如在直通交换的情况下),也可以采用所述保护带,而las需要更多逻辑,但是更有效利用可用的带宽。

8、除了tas,帧抢占(fp)15是另一ieee机制,以便减少具有低优先级的帧对具有高优先级的帧的影响。为了配置fp,区分在高速优先级中的优先级与可抢占优先级。具有高速优先级的帧可以中断具有可抢占优先级的帧的传输。在传输高速帧之后,抢占的帧的被中断的传输在其已被中断处继续。然而,帧不能在任意位置被抢占。为此将ts分为抢占部分11和高速部分12。

9、碎片必须至少64b长,因此不允许中断或抢占123b或更小的单元。所述123b表示为最小可成碎片的单元(mfu)。由此产生如下,即,在高速帧与可抢占帧之间的最坏情况干扰对应于123b的传输延迟。fp和tas可以组合地或作为单个功能来应用。

10、为了回到延迟定义,将在帧的处理的结束与传输开始之间的等待队列延迟8表示为dqueue(参见图1)。上面定义的延迟在每个中间步骤上出现。在最后一个中间跃点与starget之间的链路上的最后一次传输之后,不出现处理延迟7,因为处理是应用的责任,其不落入本范围中。总之,可以将数据流在其从ssource经过中间站至starget的路径上所经历的延迟表达为dtrans、dprop、dproc和dqueue的和。


技术实现思路

1、因此,本发明的任务在于,提供一种方法,以便在时间敏感网络中提前识别且必要时预测在网络的数据传输中可能的延迟。

2、这些特征通过独立权利要求解决且因此提供最坏情况分析得到解决。

3、在开始引入用于描述流干扰的形式模型之前,阐述帧——所述帧共享其路径的各边——如何越过多个边来行为。从这些认识中导出公式,以便描述特定流的最坏情况干扰。随后,将模型应用于基于流的调度、基于类别的调度和fp,并示出:这些调度方法的混合如何行为。

4、a干扰模型:

5、为了推导用于在流之间的干扰的最坏情况公式,以非常简单的情景开始:考虑线形拓扑,交换机具有存储并转发行为,且所有链路具有相同的链路速度。所有流在线的一端开始且都以线形拓扑的另一端为目标。因此,所有流共享同样的路径。在如下描述中,考虑总是用于特定流s的最坏情况情景。

6、1)存储并转发干扰模型:鉴于提供的情景提问:干扰在最坏情况下看起来如何。如在第一部分中所描述,只有dqueue对其他流的影响进行建模。在本部分中仅仅专注于流的干扰,且因为dqueue也包括由于关闭的门引起的延迟,所以引入名为dinterference的新延迟作为dqueue的子分量。dinerference仅仅在如下情况下出现,即,如果多个帧竞争同一传输线路,亦即产生竞争情况。因此,如果对链路的竞争最大,那么dinterference最大。这是如下情况,即,所有帧在相同时间到达或者所有帧在门打开的时刻都在等待队列中。在等待队列中的最后一帧经历最高的延迟,因为该帧必须等待,直至所有其他的帧已传输。基于如下事实,即,所有帧共享相同的路径,这种情况只能在第一边上出现,因为只有当流入远高于流出、例如在生成帧的主机上,或者如果帧经由不同端口到达,才有可能同时到达。在此要注意的是,以太网不允许帧的不间断传输,且因此对于每个竞争的流必须更附加地考虑ifg(参见第一部分)。

7、在已经考虑第一跃点之后,现在专注于下一跃点。在此,情况与δpos-帧的速度有关。在此应用速度的物理定义:对于这种情况,分配δpos=1(hop)和δtime=dtrans(e,ssize)。因为假设在所有边上链路速度相同,那么可以与e无关地表达dtrans。由此可以将表达式进一步简化为这导致如下认识,即,小帧比大帧更快速地运动。如果在最后一帧之前的帧更小或大小相同,那么这些帧以相同或甚至更快的速度从跃点向跃点运动。因此,来自第一跃点的最后一帧在下一跃点不经历在等待队列中另外的延迟。然而,如果至少一个前一帧更大且因此更慢地运动,那么后续帧必须在下一跃点上又等待更慢的帧(排队)。在此,等待时间为在前面最慢的帧与最后一帧之间的dtrans的差,因为在路径上的速度通过最慢的帧确定。这种情况在所有剩余的跃点上重复,直至最后一帧达到目标节点。示例性地在图3中表示所描述的情景。总之,在假设s是在第一跃点上排队等候的最后一个流的情况下,针对流s的最坏情况干扰可以导出如下公式:

8、

9、如果s是最大的帧,对于在其余的路径上的等待队列的表达也适用如下:在上述等式的第二分量中,排除s的路径的第一边,因为在等式的第一分量中第一边是覆盖的。

10、基于上述等式,可以扩展情景,其方式为消除所有帧都要达到同一主机的限制。因为所有帧仍总是在同一主机上开始,因此的第一分量保持不改变。改变第二分量,以便反映:并非所有帧共享s的整个路径且因此它们只需被考虑,直至它们离开s的路径:为此只需调整最大算子的范围:

11、

12、请注意:分析处理每个边上的最大算子,因为在第一边上最大的竞争帧可能离开s的路径且因此在随后的边s上与其他帧竞争。

13、接下来放松所有帧在同样的节点上开始的限制。因此必须再三考虑如下假设:在等待队列中的所有帧在源主机上位于流s之前。回想一下基本构思,即,流s在源主机等待,直至已传输在所述流之前在等待队列中的所有帧,且在随后的跃点上仅仅等待差dtrans。如果不是,那么所有其他帧在流s之前已经位于源主机上,将帧注入在路径上的任意之处。这导致如下问题:对于流s的传输什么是帧的最坏情况注入?如果s必须等待s’的整个传输,那么在两个流(s、s’)之间最大的干扰出现。在图3中这根据多个数据流s、s’、s“、s“‘示出。如果s’在s到达前不久被列入等待队列中,那么出现这种情况。到目前为止已经假设:这种情况总是在s的路径的第一边上(spath[0])出现,因为所有的流在相同的源上开始。在下文中然而不知道的是,哪个边是s的路径与另一流s’的第一重叠的边。因此引入二元关系first_overlapping_edges(f_o_es),其包含与s的路径和重叠的路径段的第一边相交的所有流s’:

14、

15、利用f_o_es现在可以改变最大算子的范围,且可以将spath的第一边添加至求和算子的范围,因为滤波利用f_o_es实现:

16、

17、最后将情景一般化到任意拓扑上。这种放松对流s没有后果,因为流的路径可考虑为线形拓扑。对于考虑这表示:并非所有其他流必须与流s冲突,亦即,如果流不具有共同的边。因此如此调整使得仅仅考虑与流s共享至少一个边的流。为了在下文中简化该表达式的应用,引入函数αsf:

18、

19、

20、在已经推导出这个公式之后,提出问题:是否存在另一更糟的情景。目前基于如下,即,所有帧直接在所考虑的帧之前被注入,且由此引起所考虑的帧的最大延迟。如果这不是最糟情况,那么这将表示:必须等待未知的帧,这违背了解在网络中的全部传输的假设。此外已经在多个情景中模拟帧的所有排列且最糟的排列对应于函数αsf的等式。

21、2)直通干扰模型:在之前的情景中已经假设:交换机实现存储并转发行为。在本部分中讨论:需要进行哪些调整,以便对直通交换的特征进行建模。

22、如在第一部分中所描述那样,在激活的直通转发的情况下,交换机在已接收到报头之后开始帧的处理。因为报头的大小是恒定的,所以与帧大小有关的dtrans仅仅出现在第一边上。在随后的跃点上,流s仅仅经历恒定的dtrans(报头尺寸)。如果每个跃点延迟不再与帧尺寸有关,那么帧的速度与帧大小无关,且因此可以忽略在干扰模型中的相应分量。与在存储并转发干扰模型中一样引入函数αct,以便在下文中简化该表达式的应用:

23、

24、

25、因为想要建模两种类型的转发行为,在下文中应用α,以便强调:该公式不仅适用于存储并转发而且也适用于直通。于是对于具体的计算α必须通过αsf或αct代替。

26、b.端至端延迟模型:

27、从源主机(ssource)至目标主机(starget)的流的端至端延迟(de2e)首先由物理路径延迟(dpath)和可变的延迟(dqueue)组成。路径延迟的分量是dtrans、dprop、dproc(参见第一部分)。利用这个定义将流s的端至端延迟引入为:

28、

29、路径延迟仅仅与spath和ssize有关。因此,可以计算用于每个流的路径延迟且将其在下文中处理为常数。相反,等待队列延迟不是恒定的且与门的配置和流s与其他流的干扰有关。特别地,如果等待队列的门是关闭的或者链路被其他帧占用,那么在交换机的输出等待队列中等待帧。为了建模这两个因素,将等待队列延迟如下定义:

30、

31、的定义是与配置有关的。如果不了解关于发送器发出流的时刻,那么可以推导出用于的最坏情况,其方式为分析处理:门对于流s的优先级关闭多长时间。关于流的发出的时刻了解越多,那么可以越狭窄地设置用于的最坏情况边界(参见图5)。如果讨论不同的调度方法,那么示出计算该延迟的不同的可能性。

32、干扰延迟同样与调度方法有关,但是在此可以表达为一个抽象的公式,如果各子分量被适当建模,那么该公式在所有情况下适用。区分两种类型的干扰,亦即类内干扰和类间干扰。作为类内干扰表示由于传输与所考虑的流s属于相同传输类别的帧的等待队列延迟。相反,跨类别的干扰理解为由其他传输类别的帧引起的延迟。

33、

34、为了表达类内干扰,在考虑流的传输类别的所有其他流的情况下计算用于流s的最坏情况等待队列。

35、对于类间的干扰,区分具有更高优先级的传输类别的流(dinter-class,>)与具有更低优先级的传输类别的流(dinter-class,<)。

36、

37、所有具有更高优先级的流都优先于流s,且因此流s的传输被所有具有更高优先级的流的传输所延迟。

38、

39、此外,交换机相对于具有更低优先级的流优先地处理流s,这导致:流s等待正在被传输的帧。在最糟的情况下,传输已刚刚开始且帧具有最大大小。因此,流必须等待具有更高优先级的所有流以及在路径spath的每个跃点上具有最大大小的低优先的帧。

40、如果已经了解具有更低优先级的帧,那么可以更好地估计上界限,其方式为在每个边上考虑具有更低优先级的最大的帧:

41、

42、而且在此对公式描述最坏情况的假设提出疑问。假设:s必须等待具有更高或相同优先级的所有流并且在每个跃点上等待具有更低优先级的最大的流。只有当另一流将阻塞链路时,才可能出现s的进一步延迟。这将表示:不了解所有具有更高和相同优先级的流,或者具有更低的优先级的另一帧被优先,这将表示:交换机的帧仲裁未正确工作。延伸传输的唯一其他可能性将是关闭的传输门,对其在dgate中进行建模。

43、在引入通用流干扰模型之后,将该模型应用到tsn网络中的调度的不同实现上,亦即基于流的调度、基于类别的调度以及fp。为了应用该模型,给dqueue分配不同的值,而dpath保持不变,因为它仅仅与交换机行为和路径有关。根据将所述模型应用到调度方案中的每个上的结果在此表明:所述模型也能够计算用于这些方案的组合的最坏情况端至端延迟(de2e)。

44、a.基于流的调度

45、基于流的调度是一种为每个流保留自身的时隙的调度方案。这种调度方案得到良好研究,因为可容易地计算最坏情况行为。特别是可以通过保留专用时隙,不出现与其他流的干扰。然而,基于流的调度需要网络中所有设备的非常精确的时间同步以及终端设备恰好在所规划的时刻发出流的能力。此外,计算用于流的最优时间规划是一个np难题。

46、通过为每个流保留专用时隙,所规划的流不会由于门关闭而在等待队列中等待,因为如此计算gcl,使得门在流到达时打开且在流传输之后关闭。因此对于基于流的所规划的流,可以忽略dgate。

47、

48、如果应用不等待调度,那么由于专用时隙还与构造有关地防止流s与相同传输类别的流以及与其他流类别的流的干扰,因此此外不出现用于s的等待队列,。

49、

50、因此,基于流的、时间控制的流的端至端延迟仅仅与路径延迟有关。

51、

52、如果基于流的调度算法充分利用等待队列,亦即不实现无等待,那么调度器必须计算dqueue且可以相应地将其进行考虑。

53、b.基于类别的调度

54、与基于流的调度相反,在基于类别的调度中不考虑各个流,而是考虑在相同流类别内的所有流。为此,所考虑的传输类别的门对于在周期52中的特定时间被打开51一次(参见图5)。将这个打开的间隔称为时间窗twindow50。对于基于类别的调度假设:主机周期性地行为,但是周期52不必须与网络周期完全一致。这表示,所述模型可以检查:提供的twindow是否足以确保特定de2e或足以计算用于提供的de2e的twindow。

55、如果流如此到达53,使得剩余的门打开时间刚好不足以传输帧,那么用于流的门延迟是最大的。因此,流必须等待,直至门在下一周期中又打开(参见图5)。对于dgate区分两种情况(参见第一部分)、亦即应用保护带(下列第一等式)或长度感知调度(las)(下列第二等式):

56、

57、

58、在门打开周期内,流s在最不利的情况下与属于相同传输类别的所有其他流竞争,因为主机与网络周期不一致。于是在属于相同的传输类别的流之间不存在时间分离:

59、

60、在类间干扰的情况下,区分两种情况,亦即流s的传输类别应用排他性门控,这表示:只有流s的传输类别的门是打开的,而非排他性门控表示:多个门是可以同时打开的。如果应用排他性门控,可以不出现在不同的类别之间的干扰,因为在twindow期间内未允许对用于其他类别的链路的访问:

61、

62、否则,非排他门控表示:可能出现在各传输类别的流之间的干扰,所述各传输类别的流的门是同时打开的。如果相比于流s的类别具有更高优先级的类别的门打开,那么必须在最糟的情况下等待所述传输类别的所有流:

63、

64、在此,用于的公式未区分于与相反,对于更低优先级的流只须考虑:在每个边上,更低优先级的最大的帧可能出现:

65、

66、如果不了解具有更低的优先级的传输,那么假设具有mtu大小的帧作为上界限。

67、从所讨论的延迟分量中产生如下公式,以用于描述基于类别的流的最坏情况端至端延迟:

68、

69、c.帧抢占

70、帧抢占(fp)是一种调度方案,其明显区分于基于时间感知整形器(tas)的方案,因为无法为特定传输类别保留排他的时间窗。为了配置fp,将传输类别标记为快速或可抢占。传输选择(ts)将快速传输类别的帧优先于可抢占的传输类别。附加地,在快速传输类别内以及在可抢占类型内的优先级基于pcp映射。总之可以说:fp能更容易地配置,但是fp只能区分两个优先级,且无法允许针对特定传输类别的排他访问。

71、基于一般的公式可以忽略因为不具有门控。

72、

73、对于类别内的干扰不必须调整公式,因为对于流s最不利的情况总是:s是等待队列中的最后一个流。然而,对于跨类别的干扰必须添加一个额外加的层,因为必须区分快速传输与可抢占的传输以及在快速传输类别内与可抢占的传输类别内的优先级。如果例如将传输类别(tc)7和tc6标记为快速,那么tc7的流s不能抢在tc6的流s’的传输之前,且因此s必须在最糟的情况下等待mtu大小的帧。然而,如果tc5的流s”——其标记为可抢占的——正在传输中,那么s中断s”的传输。虽然两个流s’和s”具有更低的优先级,但是由于附加的优先级层行为有所不同。为了考虑附加的优先级层,将分为——其通过具有更低优先级的快速传输类别表示延迟——与其通过可抢占的传输类别表示延迟:

74、

75、在此表示在每个边上与的最大值,因为s只能被在每个边上更低优先级的帧延迟。为了建模最坏情况,假设:这种延迟由于最大可能的帧产生。对于假定最大的低优先的快速流:

76、

77、利用相反通过mfu限制可抢占的延迟:

78、

79、从所讨论的各方面产生在应用fp的情况下用于最坏情况端至端延迟的如下公式:

80、

81、结合直通转发,应需要注意的是,直通只能用于快速类别。可抢占的类型无法利用直通,因为是否可以抢占可抢占的帧的决定是基于剩余碎片的大小。在应用直通的情况下,如果还未完全接收帧,那么无法确定剩余大小。因此,在该时刻不能决定的是,帧的剩余字节是否足以形成碎片(参见mfu)。

82、d.调度方案的组合

83、在已经将模型单独应用到不同的调度方案上之后,考虑调度方案的组合且示出:如何可以对调度方案相互间的影响进行建模。为此,在下文中讨论调度方案中的每个调度方案且示出:其他方案和机制对当前所考虑的方案的最坏情况模型具有何种影响。从基于流的调度开始。

84、1)基于流的调度:基于流的调度实现了所规划的流的严格的时间和空间隔离。因此基于流的所规划的流需要排他性门控,所述门控保护其流免于与基于类别的所规划的流或fp的干扰。由于保护机制,在模型中不需要更改。然而,这种保护机制对在下文中讨论的其他机制不具有影响。

85、2)基于类别的调度:基于类别的调度同样应用门控,但是可以如此配置,使得其不如基于流的调度严格。如果应用具有排他性门控的基于类别的调度,那么其他类别的流可以不影响所考虑的类别。在没有排他性门控的情况下,必须考虑在类别之间的干扰(参见在16页上用于的等式)。

86、如果组合基于类别的调度与基于流的调度,那么最坏情况行为不变,因为基于流的、所规划的流如此隔离,使得其可以不与基于类型的、所规划的流干扰。因此,这种组合的行为如具有排他性门控的基于类别的调度那样。

87、没有排他性门控的基于类别的调度与fp的组合可能导致干扰。如果基于类别的流被标记为可抢占,那么在16页上用于的等式适用。否则,最坏情况得到改善,因为基于类别的流可以抢在其他流之前且因此将减小到每个边一个mfu:

88、

89、3)帧抢占:fp没有时间参考。因此,将fp与其他机制中的一个机制相组合需要网络的时间同步。在如下考虑中基于如下:周期时间足够大,从而可以在一个周期时间内传送所有fp流。为了将fp与排他的基于门控的方案相组合,必须将添加到最坏情况计算中:

90、

91、具有排他性门控的基于类别的调度和基于流的调度具有的共同点在于,在两种方案中所有其他传输类别的门在周期期间关闭特定时间。基于流的调度在如下时间内关闭门,需要所述时间用于传输其流。实际的门延迟与调度算法的实现有关。例如可以采取用于传输所有基于流的流所需的时间,包括在边上具有最高负荷的安全裕度:

92、

93、在具有排他性门控的基于类别的调度中,门延迟对应于twindow。在没有排他性门控的基于类别的调度中,fp流的干扰项必须在考虑传输优先级和抢占标记的情况下考虑基于类别的流。

94、附图标记列表

95、1、2、3、4 网络参与方

96、5 传播延迟

97、6 传输延迟

98、7 处理延迟

99、8 等待队列延迟

100、9 ifg

101、t 时间

102、10 交换机逻辑器件

103、11 抢占发送选择(tsa)

104、12 快速发送选择(tsa)

105、13 以太网链路

106、14 tas

107、15 帧抢占

108、16 输入点(进入)

109、17 输出点(出口)

110、q0、q1、q2...q7 等待队列

111、c 门

112、30 提高的空隙

113、s,s‘,s“,s“‘ 数据流

114、50 时间窗

115、51 打开

116、52 周期

117、53 数据流s到达。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1