一种用于单组播混传的交换网络的调度方法

文档序号:30069602发布日期:2022-05-18 01:45阅读:143来源:国知局
一种用于单组播混传的交换网络的调度方法

1.本技术涉及交换网络调度领域,具体涉及一种用于单组播混传的交换网络的调度方法。


背景技术:

2.现代交换网络从单播交换网络演变至单组播混传的交换网络。这里所谓单播传输,是指将一个信息包从交换网络的一个输入端传输至指定的一个输出端;所谓组播传输,是指将一个信息包从交换网络的一个输入端传输至指定的多个输出端,这样,当信息发送端有多个目标地址发送请求时,只需要对网络输入端发送一个信息包就可以了。组播传输克服了单播传输向多个地址发送信息时数据复制的资源浪费,同时也克服了广播传输带宽时序资源浪费。
3.随着通讯技术的不断发展,新的应用情境不断涌现,对信息在交换网络传输提出了低延迟、高性能的要求。而一个能够同时满足单播传输和组播传输的交换网络,其传输是否能够保证公平性,满足qos需求,取决于是否有良好的调度方案。
4.现有技术中,组播传输的调度方案都能够满足信息包分裂扇出传输要求。所谓分裂扇出传输是指允许在一个调度周期内将信息包从一个输入端传输至目标输出端中的一个或多个,直到全部目标输出端均已送达,才将信息包从缓存器中删除。如果不允许分裂扇出传输可能会导致一个信息包被滞留在缓存器中的时间过久,因此可能会降低交换网络的吞吐率。
5.对于传统的单组播混合传输的交换网络,每个输入端需要设置缓存器用于存储不能立刻传输的信息包。一般而言,对于单播传输,每个输入端开设一个voq队列用于存储单播信息包能够很好地解决单播信息包的线头阻塞问题,并且每个输入端的voq队列可以设置与输出端数量相等且一一对应的缓存器就可以满足需求。对于允许分裂扇出的组播传输,每个输入端可以设置一个或多个组播队列队列用于存储组播信息包,就可以使整个网络的吞吐率接近100%,并且也不会对组播信息包造成太严重的线头阻塞。
6.传统的针对单组播信息包混合传输的调度方案并没有从网络整体出发考虑每个信息包的调度,而是把单播信息包与组播信息包分开进行调度计算后再整合调度。这样的调度方式大大降低了交换网络的吞吐率,并且没有非常好地考虑各种高质量服务的需求。为了满足单播传输与组播传输的公平性,现有技术也有采用随机优先和轮流优先方案,虽然可以很好地克服一些信息包“饥饿”问题,但对于随机场景而言,单播信息包与组播信息包的载入量是未知的,无法预测什么时候哪种信息包的需求量更大,因此,这种针对单组播混传的公平性开发的方案可能在某些情况下造成更大的不公平。为了解决上述问题,现有技术中还有一些改进的调度方案采用了各种反馈机制,但在硬件上却难以实现。
7.因此,当前单组播混传的交换网络调度方法存在的主要缺陷是无法既考虑传输的公平性,又保证大的吞吐量。
8.当前,单播传输场景,存在利用时间连续神经网络运算进行调度的技术。例如2002
年发表于ieee xplore,由donghui guo和gerard parr撰写的论文《a cnn model for atm cells scheduling in min switches》。该论文中,将单播交换网络映射至连续神经网络,并经过连续神经网络运算对交换网络进行调度。对于时间离散神经网络运算,则有1992年发表于international journal of circuit theory and applications,由hubert harrer和josef a.nossek撰写的论文《discrete-time cellular neural networks》以及2000年发表于international journal of circuit theory and applications,由giuseppe grassi撰写的论文《on the design of discrete-time cellular neural networks with circulant matrices》。然而至今,现有技术中未发现有将单组播混传交换网络映射至神经网络运算进行调度的方案。


技术实现要素:

9.本技术的目的在于克服背景技术中存在的上述缺陷或问题,提供一种用于单组播混传的交换网络的调度方法,其能够既考虑传输的公平性,又保证大的吞吐量。
10.为达成上述目的,采用如下技术方案:
11.第一技术方案,涉及一种用于单组播混传的交换网络的调度方法,所述交换网络传输的信息包括单播信息和组播信息,组播信息允许分裂扇出传输;所述交换网络设有若干输入端、若干输出端、若干内部节点;每个输入端与每个输出端间形成至少一条传输路径,所述传输路径经过内部节点;每个输入端设有若干缓存器,所有缓存器包括与各输出端数量相等且一一对应的若干单播缓存器和至少一个组播缓存器,单播缓存器用于缓存单播信息,组播缓存器用于缓存组播信息,信息缓存至缓存器形成信息队列;所述交换网络的调度方法为每间隔调度周期对交换网络进行调度;每个调度周期均包括以下步骤:s1:获取本次调度周期的期初所有缓存器的优先级;s2:通过神经网络运算确定本次调度周期需要接通的传输通道;具体地,所述神经网络运算中的神经元由所有传输通道映射而成;所述传输通道由传输路径和对应接通该传输路径的缓存器组成;定义由单播缓存器形成的传输通道为单播通道,定义由组播缓存器形成的传输通道为组播通道;所述所有传输通道包括由所有单播缓存器中每一单播缓存器与对应输出端间的所有传输路径形成的单播通道以及由所有组播缓存器中每一组播缓存器与所有输出端间的所有传输路径形成的组播通道;本次调度周期的期初,神经元除非符合以下失活条件之一否则为活跃神经元:经过失效的内部节点的传输通道所对应的神经元失活;缓存器未缓存信息的则与该缓存器有关的传输通道所对应的神经元失活;组播缓存器与该组播缓存器所对应的无接收任务输出端间形成的组播通道所对应的神经元失活;所述该组播缓存器所对应的无接收任务输出端是指无需接收该组播缓存器缓存的位于信息队列前端的信息的输出端;神经网络运算中,神经元的优先值为其所对应的传播通道所属缓存器的优先级;神经网络运算中,任意两个神经元除非符合以下冲突条件之一否则不构成冲突:若两个神经元所对应的传输通道指向同一输出端则构成冲突;若两个神经元所对应的传输通道经过同一内部节点则构成冲突;若两个神经元所对应的传输通道均为单播通道且涉及同一输入端则构成冲突;若两个神经元所对应的传输通道均为组播通道且涉及同一输入端的不同组播缓存器则构成冲突;若两个神经元分别对应单播通道和组播通道且涉及同一输入端则构成冲突;神经网络运算用于输出所有活跃神经元的输出值,所述输出值为第一值或第二值;输出值为第一值的神经元所对应的传输
通道为本次调度周期需要接通的传输通道;s3:接通本次调度周期所有需要接通的传输通道以传输信息。
12.第二技术方案基于第一技术方案,其中,所述缓存器的优先级由该缓存器中已占用存储空间比值、位于信息队列前端的信息进入该缓存器的时长、该缓存器中位于信息队列前端的信息包的优先级中的一个或多个因素决定。
13.第三技术方案基于第一技术方案,其中,所述神经网络运算采用时间离散神经网络运算,所述第一值为+1,所述第二值为-1。
14.第四技术方案基于第三技术方案,其中,所述神经网络运算迭代输出每个活跃神经元的输出值,直至所有活跃神经元的输出值稳定;首次迭代前,允许对y0、r0、u0赋任意值;每次迭代中,每个活跃神经元的输出值通过以下公式确定:
[0015][0016]
xn=a*y
n-1
+r
n-1
+i;
[0017][0018]
un=z
n-1

[0019][0020]
其中,y0为首次迭代前该神经元的初始输出值;r0为首次迭代前其他神经元对该神经元的状态值的初始影响值;u0为首次迭代前与该神经元构成冲突的其他所有神经元对该神经元的初始影响值;n=0时,n意为首次迭代前;n》0时,n为迭代的序次;yn为第n次迭代结束时该神经元的输出值;rn为第n次迭代时其他神经元对该神经元的状态值的影响值;un为第n次迭代时与该神经元构成冲突的其他所有神经元对该神经元的影响值;zn为第n次迭代结束时与该神经元构成冲突的其他所有神经元中输出值为+1的神经元的数量;an为第n次迭代时神经网络对该神经元的激励值;xn为第n次迭代结束该神经元的状态值;i为该神经元的优先值;s为本次调度周期内活跃神经元的数量;a为常数,且a》0;b为常数,且b《0;e为常数,且e》0。
[0021]
第五技术方案基于第四技术方案,其中,|b|》e。
[0022]
第六技术方案基于第五技术方案,其中,交换网络阻塞越严重,设定b和e时,应使越小;交换网络阻塞越不严重,设定b和e时,应使越大。
[0023]
第七技术方案基于第六技术方案,其中,y0=0、r0=0、u0=0。
[0024]
第八技术方案基于第七技术方案,其中,首次迭代前,还允许对a0赋任意值,a0为首次迭代前神经网络对该神经元的初始激励值。
[0025]
第九技术方案基于第八技术方案,其中,a0=0。
[0026]
第十技术方案基于第一或第二技术方案,其中,所述神经网络运算采用连续神经网络运算。
[0027]
相对于现有技术,上述方案具有的如下有益效果:
[0028]
对于第一技术方案,其最核心的技术贡献是将单组播混传交换网络完整地映射至神经网络运算的映射方法。其中,特别重要的是对于可分裂扇出的组播传输的映射方法。具
体地是指所有传输通道包括由所有单播缓存器中每一单播缓存器与对应输出端间的所有传输路径形成的单播通道以及由所有组播缓存器中每一组播缓存器与所有输出端间的所有传输路径形成的组播通道。可以看到,这里单播传输的映射方法与组播传输的映射方法是不同的。对于允许分裂扇出的组播传输,本技术是第一次将其映射到神经网络运算中。第一技术方案的第二个技术贡献是定义了神经元失活条件,其一是定义了由分裂扇出组播传输导致的失活条件,即组播缓存器与该组播缓存器所对应的无接收任务输出端间形成的组播通道所对应的神经元失活,其二是定义了由于硬件导致的内部节点失效引起的神经元失活,使交换网络具有更强的鲁棒性。以上技术贡献,使得单播通道与组播通道间具有了公平性。同时,基于神经网络运算的效能,辅以失活条件和冲突条件,能够保证交换网络的吞吐量,不使网络资源形成浪费。
[0029]
第二技术方案涉及缓存器优先级的决定方法,其可以应对不同的网络需求。当网络需求为延迟和不丢包时,可以由该缓存器中已占用存储空间比值和/或位于信息队列前端的信息进入该缓存器的时长决定。当网络需求为保证时效应较高的信息包的传输时,可以由位于信息队列前端的信息包的优先级决定。
[0030]
第三技术方案涉及将时间离散神经网络运算运用至经过第一技术方案映射后的交换网络调度方法。这是首次将时间离散神经网络运算用来解决交换网络调度问题。
[0031]
第四技术方案为时间离散神经网络运算的具体方法。其中,最重要的技术贡献在于引入了an,an为第n次迭代时神经网络对该神经元的激励值。该激励值的加入使得在某些优先值较低的神经元本已在头几次迭代时被筛掉又未与其他神经元发生冲突时,能够提高本来未被选中的神经元的rn值和xn值,从而更有利于被时间离散神经网络运算选中,进一步有效增加了交换网络的吞吐量。
[0032]
第六技术方案中,确定了b和e的设定方法,从而有利于从全局把握通过设定来进一步提高交换网络的吞吐量。具体机制是,在阻塞严重的交换网络,优先级低的传输通道越不容易被选中,因此,在越小的情况下,对这些优先级低的传输通道的激励就越大,越可能增加交换网络的吞吐量。
[0033]
第七、第八、第九技术方案涉及y0、r0、u0和a0的初始值设定。y0、r0、u0和a0可以由上一调度周期的相应值决定,也可以在本次调度周期开始时,将寄存器中存储的上一调度周期的相应值清除并重新进行赋值。一般而言,如果重新赋值,可以使时间离散神经网络运算的迭代次数降低。
[0034]
第十技术方案涉及采用时间连续神经网络运算来实现交换网络的调度。正如在背景技术所述,论文《a cnn model for atm cells scheduling in min switches》已经公开了在单播交换网络中运用时间连续神经网络运算进行调度的方案。在完成第一技术方案的映射后,时间连续神经网络运算的算法已经属于现有技术,本领域技术人员可以很容易地将其与第一技术方案的映射结合,解决本技术想要解决的技术问题。
[0035]
本技术另一个非常重要的技术效果在于本技术的技术方案可以适用于各种性质的交换网络,对交换网络本身的拓扑结构没有特殊要求。
附图说明
[0036]
为了更清楚地说明实施例的技术方案,下面简要介绍所需要使用的附图:
[0037]
图1为实施例一中交换网络结构示意图;
[0038]
主要附图标记说明:
[0039]
交换网络10,输入端1,输出端2,交换器3,内部节点4,单播缓存器5,组播缓存器6。
具体实施方式
[0040]
权利要求书和说明书中,除非另有限定,术语“第一”、“第二”或“第三”等,都是为了区别不同对象,而不是用于描述特定顺序。
[0041]
权利要求书和说明书中,除非另有限定,术语“中心”、“横向”、“纵向”、“水平”、“垂直”、“顶”、“底”、“内”、“外”、“上”、“下”、“前”、“后”、“左”、“右”、“顺时针”、“逆时针”等指示的方位或位置关系乃基于附图所示的方位和位置关系,且仅是为了便于简化描述,而不是暗示所指的装置或元件必须具有特定的方位或以特定的方位构造和操作。
[0042]
权利要求书和说明书中,除非另有限定,术语“固接”或“固定连接”,应作广义理解,即两者之间没有位移关系和相对转动关系的任何连接方式,也就是说包括不可拆卸地固定连接、可拆卸地固定连接、连为一体以及通过其他装置或元件固定连接。
[0043]
权利要求书和说明书中,除非另有限定,术语“包括”、“具有”以及它们的变形,意为“包含但不限于”。
[0044]
权利要求书和说明书中,除非另有限定,术语“内部节点”的准确含义是包含符合以下条件的交换网络中的连接点:该连接点具有至少两个输入与一个输出;例如,对于bayan型交换网络来说,内部节点并不是交换器(crossover),而是交换器中的作为输出口的连接点,只要该连接点符合以上定义,且不为交换网络的输入端或输出端即可。
[0045]
权利要求书和说明书中,除非另有限定,术语“所有活跃神经元的输出值稳定”是指本次迭代的所有神经元的输出值与上次迭代的所有神经元的输出值均相等,则迭代结束,本次迭代的输出值为神经网络运算的输出值。
[0046]
下面将结合附图,对实施例中的技术方案进行清楚、完整地描述。
[0047]
实施例一
[0048]
参见图1,本实施例中的交换网络10属于单组播混传的交换网络,具体地说,本实施例的交换网络10传输的信息包括单播信息和组播信息,其中,组播信息允许分裂扇出传输。
[0049]
图1示出了实施例一中交换网络10的结构图。如图1所示,本实施例中的交换网络10为8*8banyan网络,其有八个输入端1、八个输出端2和十二个交换器3。每个交换器3中均有两个输入口和两个输出口,每个输入口均与两个输出口连通,其中,所有交换器3中的所有输出口均符合本技术对内部节点4的定义,因此,本实施例中,共有24个内部节点4。本实施例中的交换网络10中,每个输入端1与每个输出端2间形成一条传输路径,总共形成六十四条传输路径。在其他实施例中,每个输入端1与每个输出端2间允许形成多条传输路径。每条传输路径均要经过内部节点4,本实施例中,每条传输路径均要经过三个内部节点4。通过控制各交换器3,可以控制传输路径的通断。本实施例中,每个输入端1设有九个缓存器。所有缓存器包括与各输出端2数量相等且一一对应的八个单播缓存器5和一个组播缓存器6,
在其他实施例中,每个输入端1可以设有多个组播缓存器6。单播缓存器5用于缓存单播信息,组播缓存器6用于缓存组播信息。信息缓存至缓存器形成信息队列。
[0050]
本实施例中,交换网络10的调度方法为每间隔调度周期对交换网络10进行调度。在每个调度周期均包括以下步骤:
[0051]
s1:获取本次调度周期的期初所有缓存器的优先级;缓存器的优先级所述缓存器的优先级由该缓存器中已占用存储空间比值、位于信息队列前端的信息进入该缓存器的时长、该缓存器中位于信息队列前端的信息包的优先级中的一个或多个因素决定。本实施例中,由于网络需求为延迟和不丢包,因此缓存器的优先级综合考虑该缓存器中已占用存储空间比值、位于信息队列前端的信息进入该缓存器的时长两个因素。在其他实施例中,特别是当网络需求为保证时效应较高的信息包的传输时,可以由位于信息队列前端的信息包的优先级决定。
[0052]
s2:通过神经网络运算确定本次调度周期需要接通的传输通道;
[0053]
具体地,神经网络运算中的神经元由所有传输通道映射而成;传输通道由传输路径和对应接通该传输路径的缓存器组成;定义由单播缓存器5形成的传输通道为单播通道,定义由组播缓存器6形成的传输通道为组播通道;所有传输通道包括由所有单播缓存器5中每一单播缓存器5与对应输出端2间的所有传输路径形成的单播通道以及由所有组播缓存器6中每一组播缓存器6与所有输出端2间的所有传输路径形成的组播通道;本实施例中,每个输入端1共有八个单播缓存器5,每个单播缓存器对应一条单播通道,八个输入端1共有为六十四条单播通道;本实施例中,每个输入端有一个组播缓存器6,每个组播缓存器6对应各输出端1共有八条组播通道,八个输入端1共有六十四条组播通道。因此,本实施例中,传输通道的数量为一百二十八条,神经网络运算中的神经元对应的也有一百二十八个。
[0054]
本次调度周期的期初,神经元除非符合以下失活条件之一否则为活跃神经元:经过失效的内部节点4的传输通道所对应的神经元失活;缓存器未缓存信息的则与该缓存器有关的传输通道所对应的神经元失活;组播缓存器6与该组播缓存器6所对应的无接收任务输出端2间形成的组播通道所对应的神经元失活;该组播缓存器6所对应的无接收任务输出端2是指无需接收该组播缓存器6缓存的位于信息队列前端的信息的输出端2。
[0055]
神经网络运算中,神经元的优先值为其所对应的传播通道所属缓存器的优先级。
[0056]
神经网络运算中,任意两个神经元是否构成冲突是由交换网络10的结构决定的。具体地,任意两个神经元除非符合以下冲突条件之一否则不构成冲突:若两个神经元所对应的传输通道指向同一输出端2则构成冲突;若两个神经元所对应的传输通道经过同一内部节点4则构成冲突;若两个神经元所对应的传输通道均为单播通道且涉及同一输入端1则构成冲突;若两个神经元所对应的传输通道均为组播通道且涉及同一输入端1的不同组播缓存器6则构成冲突;若两个神经元分别对应单播通道和组播通道且涉及同一输入端1则构成冲突;本实施例中,由于每个输入端1只有一个组播缓存器6,因此,冲突条件之一的两个神经元所对应的传输通道均为组播通道且涉及同一输入端1的不同组播缓存器6则构成冲突的规则不适用。而在其他实施例中,如果每个输入端1有两个以上的组播缓存器6,则该冲突条件应当适用。
[0057]
神经网络运算用于输出所有活跃神经元的输出值,所述输出值为第一值或第二值;输出值为第一值的神经元所对应的传输通道为本次调度周期需要接通的传输通道;本
实施例中,所述第一值为+1,所述第二值为-1。
[0058]
本实施例中,神经网络运算采用时间离散神经网络运算,具体地,所述神经网络运算迭代输出每个活跃神经元的输出值,直至所有活跃神经元的输出值稳定;这里,“所有活跃神经元的输出值稳定”是指本次迭代的所有神经元的输出值与上次迭代的所有神经元的输出值均相等,则迭代结束,本次迭代的输出值为神经网络运算的输出值。首次迭代前,允许对y0、r0、u0赋任意值,也可以对a0赋任意值;每次迭代中,每个活跃神经元的输出值通过以下公式确定:
[0059]
xn=a*y
n-1
+r
n-1
+i;
[0060][0061]
un=z
n-1

[0062][0063]
其中:
[0064]
y0为首次迭代前该神经元的初始输出值;r0为首次迭代前其他神经元对该神经元的状态值的初始影响值;u0为首次迭代前与该神经元构成冲突的其他所有神经元对该神经元的初始影响值;a0为首次迭代前神经网络对该神经元的初始激励值;n=0时,n意为首次迭代前;n》0时,n为迭代的序次;yn为第n次迭代结束时该神经元的输出值;rn为第n次迭代时其他神经元对该神经元的状态值的影响值;un为第n次迭代时与该神经元构成冲突的其他所有神经元对该神经元的影响值;zn为第n次迭代结束时与该神经元构成冲突的其他所有神经元中输出值为+1的神经元的数量;an为第n次迭代时神经网络对该神经元的激励值;xn为第n次迭代结束该神经元的状态值;i为该神经元的优先值;s为本次调度周期内活跃神经元的数量;a为常数,且a》0;b为常数,且b《0;e为常数,且e》0。一般地,在设定b和e时,可以使|b|》e。交换网络阻塞越严重,设定b和e时,应使越小;交换网络阻塞越不严重,设定b和e时,应使越大。在本实施例中,a=1;b=-0.25;e=0.015625。对于本领域技术人员来说,在了解和掌握了本技术的技术构思后,选取适当的a、b和e值并不困难。本实施例中,y0、r0、u0和a0在每次调度周期期初赋值为0。
[0065]
s3:接通本次调度周期所有需要接通的传输通道以传输信息。具体地,由控制器控制交换器3接通传输通道,输入端1将对应的缓存器中的位于信息队列前端的信息通过该传输通道的传输路径发送至对应输出端2。
[0066]
申请人对本实施例中的交换网络10的调度方法进行了测试,以测试单播传输与组播传输的公平性和整个交换网络10的吞吐率。具体地,吞吐率的计算方式为随机抽取若干次调度结果,对信息包被成功传输的输出端2进行叠加,对每次调度前,位于缓存器中信息队列前端的信息所请求到达的输出端2进行叠加,取两者间的比值为吞吐率。单播传输与组播传输的公平性则采用单组播周期延迟差评价。所谓单组播周期延迟差,是指随机抽取的若干次调度周期,计算所有单播缓存器5中位于队列前端的信息包已跨越最大调度周期数与所有组播缓存器6中位于队列前端的信息包已跨越最大调度周期数之间的差值的绝对
值。
[0067]
测试条件为随机产生组播信息包、单播信息包,单播信息包输入与输出随机,组播信息包输入与输出组合随机,信息包产生的时间密度随机,但保证高速运转。
[0068]
在以上测试条件下,获得的吞吐率稳定在100%,单组播周期延迟差为3,每个调度周期平均迭代次数为38.1,且迭代次数不会随着网络神经元数量增大而显著增大。
[0069]
从以上实施例和测试结果可以看出,本实施例中的技术方案主要技术贡献是将单组播混传交换网络完整地映射至神经网络运算的映射方法。其中,特别重要的是对于可分裂扇出的组播传输的映射方法。具体地是指所有传输通道包括由所有单播缓存器中每一单播缓存器与对应输出端间的所有传输路径形成的单播通道以及由所有组播缓存器中每一组播缓存器与所有输出端间的所有传输路径形成的组播通道。可能看到,这里单播传输的映射方法与组播传输的映射方法是不同的。对于允许分裂扇出的组播传输,本技术是第一次将其映射到神经网络运算中。第一技术方案的第二个技术贡献是定义了神经元失活条件,其一是定义了由分裂扇出组播传输导致的失活条件,即组播缓存器与该组播缓存器所对应的无接收任务输出端间形成的组播通道所对应的神经元失活,其二是定义了由于硬件导致的内部节点失效引起的神经元失活,使交换网络具有更强的鲁棒性。以上技术贡献,使得单播通道与组播通道间具有了公平性。同时,基于神经网络运算的效能,辅以失活条件和冲突条件,能够保证交换网络的吞吐量,不使网络资源形成浪费。本实施例将时间离散神经网络运算运用至经过映射后的交换网络调度方法。这是首次将时间离散神经网络运算用来解决交换网络调度问题。本实施例公开了时间离散神经网络的具体方法,其中,最重要的技术贡献在于引入了an,an为第n次迭代时神经网络对该神经元的激励值。该激励值的加入使得在某些优先值较低的神经元本已在头几次迭代时被筛掉又未与其他神经元发生冲突时,能够提高本来未被选中的神经元的rn值和xn值,从而更有利于被时间离散神经网络运算选中,进一步有效增加了交换网络的吞吐量。本实施例通过b和e的设定方法,从而有利于从全局把握通过设定来进一步提高交换网络的吞吐量。具体机制是,在阻塞严重的交换网络,优先级低的传输通道越不容易被选中,因此,在越小的情况下,对这些优先级低的传输通道的激励就越大,越可能增加交换网络的吞吐量。本技术中,y0、r0、u0和a0可以由上一调度周期的相应值决定,也可以在本次调度周期开始时,将寄存器中存储的上一调度周期的相应值清除并重新进行赋值。本实施例中,对y0、r0、u0和a0均重新赋值,可以使时间离散神经网络运算的迭代次数降低。
[0070]
实施例二
[0071]
实施例二与实施例一唯一的区别是采用《a cnn model for atm cells scheduling in min switches》已经公开的时间连续神经网络运算。本领域技术人员可以很容易地将其与第一技术方案的映射结合,解决本技术想要解决的技术问题。
[0072]
需要注意的是,虽然实施例一和实施例二的交换网络10为banyan网络,但本技术的调度方法对各种性质的交换网络均能适用,对交换网络10本身的拓扑结构没有特殊要求。
[0073]
上述说明书和实施例的描述,用于解释本技术的保护范围,但并不构成对本技术保护范围的限定。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1