一种联邦学习系统中用户调度和资源分配方法

文档序号:32482636发布日期:2022-12-09 23:35阅读:53来源:国知局
一种联邦学习系统中用户调度和资源分配方法

1.本发明涉及联邦学习技术领域,尤其是指一种基于时分波分复用无源光网络的联邦学习系统中用户调度和资源分配方法和基于时分波分复用无源光网络的联邦学习系统。


背景技术:

2.现有的技术中,5g移动网络的部署,使得万物互联时代得以成为现实,人工智能技术的应用也正从云端向网络边缘延伸。然而,传统的分布式机器学习已经不能满足现有的网络的架构,传统的分布式机器学习算法通常收集边缘用户的数据集,在云数据中心进行训练学习。通常,这些数据集十分庞大,会对网络造成严重的冲突,使得网络出现拥堵现象,并且要求边缘用户向数据中心发送数据集,这不可避免的会造成数据泄露,因此,一种新的分布式机器学习被提出,即联邦学习。
3.联邦学习是一种非常有潜力的分布式边缘学习框架,是由google研究人员于2016年提出,受到了学术界和工业界的广泛关注。联邦学习允许多个边缘用户设备在中心服务器的协调下,共同训练一个模型,与传统的分布式机器学习不同的是,边缘用户设备不需要向中心服务器发送数据样本,只需要利用本地的数据样本进行本地模型更新,然后上传训练完成的本地模型至中心服务器,中心服务器利用算法聚合接收到的本地模型,并将新的本地模型下发至边缘用户,完成一轮训练,经过多轮迭代交互,最终训练得到一个精确度好的模型。
4.但由于联邦学习需要多轮次更新迭代,每轮都有大量的用户将自己的本地训练模型上传给服务器,会对网络造成较大的危害,因此需要一些用户选择已经资源调度算法,减小联邦学习流量对网络的危害。无源光网络系统pon的架构可以与联邦学习架构很好的相容,利用pon系统实现联邦学习有着其他系统没有的天然优势。
5.目前最新的无源光网络是时分波分复用无源光网络twdm-pon,时分波分复用无源光网络是通过对两个复用(时分复用和波长复用)进行组合,从而增加带宽的大小,提高用户的服务质量,由于对高传输速率的需求越来越大,时分波分复用无源光网络的研究已经引起越来越专家学者的关注,考虑到波长的灵活性和多用户的接入,以及网络各单元(onu)之间的公平性,提高用户的服务质量已成为必要,对于onu之间的公平性来说,大多数学者都是基于以太网无源光网络进行研究,在twdm-pon网络中考虑onu之间公平性的研究很缺乏甚至没有,因此,在基于时分波分复用无源光网络的联邦学习系统中,合理的用户调度和资源分配是目前待解决的问题。


技术实现要素:

6.为此,本发明所要解决的技术问题在于克服现有技术中在twdm-pon网络中没有合理的用户调度和资源分配。
7.为解决上述技术问题,本发明提供了一种基于时分波分复用无源光网络的联邦学习系统中用户调度和资源分配方法,应用于光线路终端,包括:
8.将部署在光线路终端的中心服务器所发送的初始全局模型传播给所有部署在无源光网络单元上的用户;
9.当用户接收到所述初始全局模型并进行本地模型更新后,随机选取一组用户进行标记,并,
10.根据波长的负载情况对波长进行降序排序,统计每个无源光网络单元下标记过的用户更新后的本地模型聚合完成的时间点,根据所述时间点对无源光网络单元升序排序,根据排序结果为所述每个无源光网络单元分配波长并授予带宽;
11.波长和带宽分配结束后,获取每个无源光网络单元下标记过的用户聚合后的模型,以便所述中心服务器将其聚合为新的全局模型,更新所述初始全局模型;
12.判断此时的全局损失函数是否收敛或全局模型更新次数是否达到上限,若否,则重复以上步骤。
13.优选地,所述当用户接收到所述初始全局模型并进行本地模型更新后,随机选取一组用户进行标记包括:
14.当用户接收到所述初始全局模型并进行本地模型更新后,随机选取一组用户并获取其中每个用户的模型范数;
15.根据所述模型范数对该组用户进行降序排序,并选择排序靠前的预设数量的用户进行标记。
16.优选地,所述模型范数的计算公式为:其中,为第t+1轮第u个用户所更新的本地模型,为第t轮的全局模型。
17.优选地,所述根据波长的负载情况对波长进行降序排序,并统计每个无源光网络单元下标记过的用户更新后的本地模型聚合完成的时间点,根据所述时间点对无源光网络单元升序排序,根据排序结果为所述每个无源光网络单元分配波长包括:
18.根据波长的负载情况对波长λ进行降序排序[λ1,λ2,...,λ
n-1
,λn],其中,n为波长总数;
[0019]
统计每个无源光网络单元下标记过的用户更新后的本地模型聚合完成的时间点[t1,t2,t3,...,tk],其中,k为无源光网络单元数量;
[0020]
根据所述时间对无源光网络单元onu升序排序[onu1,onu2,...,onuk],其中,k为无源光网络单元的数量;
[0021]
根据排序后无源光网络单元所处的序号为其分配波长λj,j=i%n,其中,i为无源光网络单元序号,j为波长序号,
[0022]
则每个波长所传输的无源光网络单元集合为wj=[onuj,onu
n+j
,,onu
3n+j
,...]。
[0023]
优选地,所述根据排序结果为所述每个无源光网络单元授予带宽包括:
[0024]
计算第j个波长上相邻无源光网络单元之间的时间间隔其中,x为第j个波长上所传输的无源光网络单元集合中的无源光网络单元序号;
[0025]
根据所述时间间隔计算第j个波长上所传输的无源光网络单元集合中序号为x的无源光网络单元申请的带宽切片大小且且其中,z为轮询窗口的平均大小,fl
x
表示序号为x的无源光网络单元传输的模型大小,loadj表示波长j
此时的负载;
[0026]
第j个波长上所传输的无源光网络单元集合中,末位无源光网络单元申请的带宽切片大小为最大允许带宽切片大小。
[0027]
优选地,所述本地模型更新方式为其中,为第t+1轮第u个用户所更新的本地模型,为第t轮的全局模型,η为学习率,

f()为本地损失函数。
[0028]
优选地,所述全局模型的聚合过程为:其中,为第t轮第u个用户所更新的本地模型,为第t+1轮的全局模型,k为无源光网络单元的数量,du为第u个用户的本地数据集大小,d为所有用户的数据集大小。
[0029]
优选地,所述全局损失函数为:其中,
▽ft+1
表示第t+1轮的全局损失函数,为第t轮的全局模型,

f()为本地损失函数,du为第u个用户的本地数据集大小,d为所有用户的数据集大小,k为无源光网络单元的数量。
[0030]
本发明还提供了一种基于时分波分复用无源光网络的联邦学习系统,包括:
[0031]
无源光网络单元,部署有多个用户,用于将用户所上传的本地模型进行聚合;
[0032]
中心服务器,用于初始化训练任务和全局模型;
[0033]
光线路终端,部署有所述中心服务器,用于将中心服务器所发送的初始全局模型传播给所有部署在无源光网络单元上的用户,并,
[0034]
根据波长的负载情况对波长进行降序排序,统计每个无源光网络单元下标记过的用户更新后的本地模型聚合完成的时间点,根据所述时间点对无源光网络单元升序排序,根据排序结果为所述每个无源光网络单元分配波长并授予带宽,且,
[0035]
在波长和带宽分配结束后,获取每个无源光网络单元下标记过的用户聚合后的模型,以便所述中心服务器将其聚合为新的全局模型,更新所述初始全局模型,
[0036]
还用于判断当前的全局损失函数是否收敛或全局模型更新次数是否达到上限;
[0037]
光缆网络,用于为所述光线路终端和所述无源光网络单元之间提供光传输通道。
[0038]
优选地,所述光线路终端还用于当用户接收到所述初始全局模型并进行本地模型更新后,随机选取一组用户并获取其中每个用户的模型范数,根据所述模型范数对该组用户进行降序排序,并选择排序靠前的预设数量的用户进行标记。
[0039]
本发明的上述技术方案相比现有技术具有以下优点:
[0040]
本发明提出了一种基于时分波分复用无源光网络的联邦学习系统中,用于联邦学习流量的用户调度和资源分配方法,根据标记过用户更新后的本地模型在无源光位宽单元聚合完成的时间点,为其分配不同的传输波长并设置最大传输带宽,以保证公平运行,提升了本地模型上传的速度,使得联邦学习能够更快地完成训练过程。
附图说明
[0041]
为了使本发明的内容更容易被清楚的理解,下面根据本发明的具体实施例并结合附图,对本发明作进一步详细的说明,其中:
[0042]
图1是本发明一种基于时分波分复用无源光网络的联邦学习系统中用户调度和资
源分配方法的实现流程图;
[0043]
图2是一种实施例提供的模型训练精确度结果对比图;
[0044]
图3是一种实施例提供的资源调度以及带宽分配示意图;
[0045]
图4是一种基于时分波分复用无源光网络的联邦学习系统。
具体实施方式
[0046]
本发明的核心是提供一种基于时分波分复用无源光网络的联邦学习系统中用户调度和资源分配方法和基于时分波分复用无源光网络的联邦学习系统,保证了公平运行,提升了本地模型上传的速度,使得联邦学习能够更快地完成训练过程。
[0047]
为了使本技术领域的人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0048]
请参考图1,图1为本发明所提供的基于时分波分复用无源光网络的联邦学习系统中用户调度和资源分配方法的实现流程图;具体操作步骤如下:
[0049]
s101:将部署在光线路终端的中心服务器所发送的初始全局模型传播给所有部署在无源光网络单元上的用户;
[0050]
s102:当用户接收到所述初始全局模型并进行本地模型更新后,随机选取一组用户进行标记;
[0051]
所述本地模型更新方式为其中,为第t+1轮第u个用户所更新的本地模型,为第t轮的全局模型,η为学习率,

f()为本地损失函数。
[0052]
s103:根据波长的负载情况对波长进行降序排序,统计每个无源光网络单元下标记过的用户更新后的本地模型聚合完成的时间点,根据所述时间点对无源光网络单元升序排序,根据排序结果为所述每个无源光网络单元分配波长并授予带宽;
[0053]
根据波长的负载情况对波长λ进行降序排序[λ1,λ2,...,λ
n-1
,λn],其中,n为波长总数;
[0054]
统计每个无源光网络单元下标记过的用户更新后的本地模型聚合完成的时间点[t1,t2,t3,...,tk],其中,k为无源光网络单元数量;
[0055]
根据所述时间对无源光网络单元onu升序排序[onu1,onu2,...,onuk],其中,k为无源光网络单元的数量;
[0056]
根据排序后无源光网络单元所处的序号为其分配波长λj,j=i%n,其中,i为无源光网络单元序号,j为波长序号,
[0057]
则每个波长所传输的无源光网络单元集合为wj=[onuj,onu
n+j
,...,onu
3n+j
,...]。
[0058]
计算第j个波长上相邻无源光网络单元之间的时间间隔其中,x为第j个波长上所传输的无源光网络单元集合中的无源光网络单元序号;
[0059]
根据所述时间间隔计算第j个波长上所传输的无源光网络单元集合中序号为x的无源光网络单元申请的带宽切片大小且为了保证授予给该onu的带宽时隙过大
而对其他onu产生干扰:由波长负载决定:其中,z为轮询窗口的平均大小,fl
x
表示序号为x的无源光网络单元传输的模型大小,loadj表示波长j此时的负载;
[0060]
第j个波长上所传输的无源光网络单元集合中,末位无源光网络单元申请的带宽切片大小为最大允许带宽切片大小。
[0061]
s104:波长和带宽分配结束后,获取每个无源光网络单元下标记过的用户聚合后的模型,以便所述中心服务器将其聚合为新的全局模型,更新所述初始全局模型;
[0062]
所述全局模型的聚合过程为:其中,为第t轮第u个用户所更新的本地模型,为第t+1轮的全局模型,k为无源光网络单元的数量,du为第u个用户的本地数据集大小,d为所有用户的数据集大小。
[0063]
s105:判断此时的全局损失函数是否收敛或全局模型更新次数是否达到上限,若否,则重复以上步骤。
[0064]
所述全局损失函数为:其中,
▽ft+1
表示第t+1轮的全局损失函数,为第t轮的全局模型,

f()为本地损失函数,du为第u个用户的本地数据集大小,d为所有用户的数据集大小,k为无源光网络单元的数量。
[0065]
本发明提出了一种基于时分波分复用无源光网络的联邦学习系统中,用于联邦学习流量的用户调度和资源分配方法,根据标记过用户更新后的本地模型在无源光位宽单元聚合完成的时间点,为其分配不同的传输波长,且根据波长的负载设置最大传输带宽,以保证公平运行,提升了本地模型上传的速度,使得联邦学习能够更快地完成训练过程。
[0066]
基于以上实施例,本实施例对步骤s102进行进一步说明:
[0067]
当用户接收到所述初始全局模型并进行本地模型更新后,随机选取一组用户并获取其中每个用户的模型范数,所述模型范数的计算公式为:其中,为第t+1轮第u个用户所更新的本地模型,为第t轮的全局模型;
[0068]
根据所述模型范数对该组用户进行降序排序,并选择排序靠前的预设数量的用户进行标记。
[0069]
本发明在随机选择的基础上进行第二次选取,上传范数值比较大的用户模型,提升了模型收敛速度。
[0070]
基于以上实施例,本实施例在一个开源平台上进行验证,具体如下:
[0071]
采用16个无源光网络单元onu,每个onu下有着相同数量的用户,波长数量为4,其中,波长负载归一化值为0.1,0.3,0.5,0.7,每个波长下的onu数量一致,光线路终端olt与onu的距离设为20km,下传的速率设为10gb/s,上传的单波长速率设为2.5gb/s。
[0072]
采用两层5*5的cnn网络进行训练,含有26.4百万个参数,假定每个参数被量化为1bit信息,因此,每个模型的数据量为26.4兆字节。学习率设定为0.006,用于用户本地模型更新的mini-batch大小设为10,每轮进行一次本地更新。如图2所示,是进行120轮联邦学
习,用户数量为32时与随机选择策略的精确度结果对比,可以看出,相比于随机用户选取策略,采用本发明的用户选择策略收敛速度更快,精度更高,且不同数量的客户参与训练,对精确度有着十分明显的影响,同时,上传时间也缩短。
[0073]
如图3所示,是资源调度以及带宽分配示意图,四个波长负载情况分别为0.7、0.5、0.3、0.1,对应着波长w1至w4,onu1至onu16为时间排序后的onu序号,可以看出,若训练时间久的onu在负载重的波长上传输,会导致训练时间上升,其中,图中onu长度表示分配的带宽大小。
[0074]
如图4所示,本发明还提供了一种基于时分波分复用无源光网络的联邦学习系统,包括:
[0075]
无源光网络单元onu,部署有多个用户,用于将用户所上传的本地模型进行聚合;
[0076]
中心服务器,用于初始化训练任务和全局模型;
[0077]
光线路终端olt,部署有所述中心服务器,用于将中心服务器所发送的初始全局模型传播给所有部署在无源光网络单元上的用户,并,
[0078]
根据波长的负载情况对波长进行降序排序,统计每个无源光网络单元下标记过的用户更新后的本地模型聚合完成的时间点,根据所述时间点对无源光网络单元升序排序,根据排序结果为所述每个无源光网络单元分配波长并授予带宽,且,
[0079]
在波长和带宽分配结束后,获取每个无源光网络单元下标记过的用户聚合后的模型,以便所述中心服务器将其聚合为新的全局模型,更新所述初始全局模型,
[0080]
还用于判断当前的全局损失函数是否收敛或全局模型更新次数是否达到上限;
[0081]
光缆网络odn,用于为所述光线路终端和所述无源光网络单元之间提供光传输通道。
[0082]
显然,上述实施例仅仅是为清楚地说明所作的举例,并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本发明创造的保护范围之中。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1