一种异构通信网络的分组式联邦学习方法

文档序号:31392578发布日期:2022-09-03 02:42阅读:146来源:国知局
一种异构通信网络的分组式联邦学习方法

1.本发明涉及通信网络和联邦学习技术领域,具体涉及一种通信网络的学习方法。


背景技术:

2.在信息时代,爆炸式的数据增长成为了人工智能和深度学习发展的坚实基础。特别地,深度学习模型增强了众多领域的智能应用,如目标检测、机器健康监控、语音识别和机器翻译。训练一个性能更好的网络需要从大量的数据集中提取更多准确的特征,也正因如此,获取更多的数据至关重要。在保险、医疗和其他工业领域中,各个企业希望充分利用彼此的数据与网络模型,来获得更好的网络性能。但出于对数据隐私的考虑与担忧,各个企业之间实际上存在着“数据孤岛”的现象,这促使了联邦学习的发展。联邦学习允许各个实体在保证数据隐私性的前提下共享模型参数,从而提高训练模型的最终效果。
3.随着第六代无线通信和物联网技术的进步,大量的智能设备被连接到网络上,这使得联邦学习对提高无线通信系统的性能具有重要意义。然而,这些设备的通信和计算能力有很大的不同,这导致了集中式聚合的高延迟,促进了去中心式联邦学习方法的发展。
4.一些联邦学习方法采用集中式的聚合方式,大量的客户节点设备与服务器节点进行交互,客户节点将自身所拥有的模型参数上传至服务器节点,服务器节点进行聚合之后再下发给客户节点。该方法虽然较为便利,但在通信场景复杂和设备异构性较大的情形下会造成大量的延迟,速度快、性能好的设备必须等待速度慢、性能差的设备完成本轮任务后才能开启下一轮的模型聚合。
5.一些联邦学习方法采用去中心式的聚合方式,客户节点在每一轮周期更新中随机选择一个或多个客户节点,然后与所选节点交换更新后的模型参数。通过这种方式,客户节点会异步地训练和更新模型。然而,由于客户节点的异构性,如通信条件和计算能力,在通信拓扑有限的条件下,该方法表现较差。


技术实现要素:

6.为了克服现有技术的不足,本发明提供一种异构通信网络的分组式联邦学习方法,建立基于端到端通信的联邦学习系统模型,根据相关的设备异构性差异及通信场景的复杂性,计算设备之间的代价函数值,并根据代价函数值将设备进行分组,最终得到分组结果,分组结果将代价函数值小于设定阈值的参与设备划分为同一组,并在组内、组间分别进行联邦学习任务。本发明解决现有联邦学习方法时延高、设备利用率不足的问题。
7.本发明解决其技术问题所采用的技术方案的具体步骤为:
8.步骤一、构建联邦学习系统模型:
9.所述联邦学习系统模型包括至少1个终端设备,所述终端设备具有无线通信发送和接收能力,并具有浮点计算能力;
10.步骤二、确定优化目标函数:
11.基于联邦学习系统模型,根据实际需求的人工智能训练模型,确定联邦学习任务
优化目标函数;将人工智能训练模型的所有优化目标函数求和后计算均值,得到联邦学习系统模型的优化目标函数;
12.步骤三、测量并获取步骤一构建的联邦学习系统模型中终端设备之间的最大通信速率,以及各个终端设备的工作频率信息,计算得到终端设备之间的代价函数值;
13.步骤四、在所有还未具有分组标签的终端设备中,挑选工作频率最高的终端设备作为伪服务器,并由该伪服务器在剩余未分组的终端设备中,选择代价函数值小于给定阈值的终端设备作为该伪服务器分组成员;继续在剩下的未分组的终端设备中挑选工作频率最高的终端设备作为伪服务器,并由该伪服务器在剩余未分组的终端设备中,选择代价函数值小于给定阈值的终端设备作为该伪服务器分组成员,由此不断重复,直至所有终端设备均已分组,将所有终端设备都存在分组标签,得到分组结果;
14.步骤五、基于步骤四的分组结果,终端设备进行联邦学习任务模型的模型训练和组内模型聚合,不断重复模型训练和组内模型聚合,直至达到预设时间t1,则结束循环;
15.步骤六、在步骤五进行至预设时间t1后,终端设备进行联邦学习任务模型的模型训练和组间模型聚合,并不断重复模型训练和组间模型聚合,直至达到预设时间t2;
16.步骤七、不断重复步骤五和步骤六,直至联邦学习任务训练模型的精确度不再提高,精确度不再提高指在当前时刻至规定时间t内,模型的精确度均小于当前时刻的精确度。
17.所述代价函数公式具体如下:
18.c
ij
=1/r
ij
+μ(f
i-fj)219.其中,将c
ij
为终端设备中第i个设备和第j个设备之间的代价函数值,r
ij
为第i个设备和第j个设备之间的最大通信速率,μ为终端设备之间的计算异构性在代价函数中所占权重,fi和fj分别定义为第i个设备和第j个设备的工作频率。
20.所述组内模型聚合的步骤为:
21.所有未被挑选作为伪服务器的终端设备将已有更新后的模型参数发送至未被挑选作为伪服务器的终端设备所在分组内的伪服务器处,该伪服务器等待接收组内所有成员的模型参数后,将收到的模型参数进行加权平均,并下发给本组内的成员。
22.所述更新方法包括随机梯度下降法或adam算法。
23.所述组间模型聚合过程为:所有身份为伪服务器的终端设备均向除自身外其余伪服务器设备发送更新后的模型参数,并等待接收来自其余伪服务器设备的模型参数,接收完成后,将收到的模型参数进行加权平均,并将加权平均后的模型下发至对应分组的其余普通终端设备。
24.本发明的有益效果在于采用本发明的方法,建立一种基于端到端通信的联邦学习系统模型,在终端设备进行信息通信的过程中,将具有相似通信条件与计算能力的设备分为一组,从而降低由于设备等待期造成的资源浪费与时延问题。
附图说明
25.图1是本发明的系统结构示意图。
26.图2是本发明采用的联邦学习任务卷积神经网络的结构示意图。
27.图3是本发明实施例的系统模型准确率随时间变化的仿真图。
具体实施方式
28.下面结合附图和实施例对本发明进一步说明。
29.本发明提供了一种面向异构设备和复杂通信环境的分组式联邦学习方法,其特征在于,建立一种基于端到端通信的联邦学习系统模型,根据相关的设备异构性差异及通信场景的复杂性,计算设备之间的代价函数值并根据代价函数值将设备进行分组,最终得到分组结果,其将相似度较高的参与设备划分为同一组并在组内、组间分别进行联邦学习任务。
30.本发明的一种面向异构设备和复杂通信环境的分组式联邦学习方法具体按照以下步骤实施:
31.步骤一、构建联邦学习系统模型:
32.所述联邦学习系统模型包括至少1个终端设备,所述终端设备应具有无线通信发送和接收能力,并应具有一定的计算能力。
33.步骤二、确定目标函数:
34.基于步骤一构建的联邦学习系统模型,一般来说,联邦学习系统模型包括较多的终端设备参与,在此基础上,各设备应确定联邦学习任务目标,确定优化目标函数。
35.模型构建好之后,根据需要进行的联邦学习任务目标确定优化目标函数,例如优化目标是机器学习模型、深度学习模型等。
36.假设联邦学习任务目标是卷积神经网络,那么就有如下优化目标函数:
[0037][0038]
其中,表示全新的定义,表示第k个终端设备的训练损失函数,pk表示第k个终端设备训练损失函数在系统中所占的权重,为联邦学习总体任务目标函数,w
*
为联邦学习系统中使任务目标函数最优的模型参数。
[0039]
步骤三、测量并获取步骤一构建的联邦学习系统中终端设备之间的最大通信速率,以及各个终端设备的工作频率信息,进一步根据代价函数计算公式得到终端设备之间的代价函数值;
[0040]
所述代价函数公式具体如下:
[0041]cij
=1/r
ij
+μ(f
i-fj)2[0042]
其中,将定义为终端设备中第i个设备和第j个设备之间的代价函数值,r
ij
定义为第i个设备和第j个设备之间的最大通信速率,μ定义为终端设备之间的计算异构性在代价函数中所占权重,fi和fj分别定义为第i个设备和第j个设备的工作频率;
[0043]
步骤四、在所有还未具有分组标签的终端设备中,挑选工作频率最高的设备作为伪服务器,并由该设备在剩余未分组的终端设备中,选择代价函数值小于给定阈值的设备作为其分组成员。重复上述操作至所有终端设备都存在分组标签;
[0044]
步骤五、基于步骤四的分组结果,终端设备进行联邦学习任务模型的训练和组内模型聚合;
[0045]
所述组内模型聚合过程为:所有普通终端设备将已有更新后的模型参数发送至其
所在分组内的伪服务器处,伪服务器等待接收组内所有成员的模型后,将收到的模型进行加权平均,并下发给组内成员,重复以上操作;
[0046]
具体的,如果步骤二中联邦学习任务确定为卷积神经网络,那么任务模型的训练表达式如下:
[0047][0048]
其中,表示第m个设备在第(θ+1)轮组间模型聚合前,第i-1轮训练更新后的模型参数,η表示模型学习率,表示第m个设备模型参数在样本上的梯度值。
[0049]
步骤六、基于步骤四的分组结果,在步骤五进行至预先设定的时间时,进行组间模型聚合;
[0050]
所述组间模型聚合过程为:所有身份为伪服务器的终端设备均向除自身外其余伪服务器设备发送最新的模型参数,并等待接收来自其余伪服务器设备的模型参数,接收完成后,将收到的模型参数进行加权平均并将平均后的模型下发至对应分组的其余普通终端设备;
[0051]
步骤七、重复步骤五、步骤六直至联邦学习任务训练模型的精确度不再提高。
[0052]
实施例
[0053]
本发明实例研究的是终端设备在端到端通信的场景中进行联邦学习任务,所有的终端设备之间均可进行通信,但设备之间的通信质量是不均匀的,图1为实施例的联邦学习系统模型示意图。在本实施例中,取终端设备的个数为10;联邦学习任务为在手写数字识别数据集上训练卷积神经网络,网络结构如图2所示;设备的工作频率取值范围为[2,4]ghz;设备间的最大通信速率为[1,3]mb/s;设备完成一轮训练所需的工作时钟为20
×
109;对于系统的参数设置如下:阈值设置为最小代价函数值的2倍,工作频率权重μ设置为1,组间模型聚合时间设置为150秒。
[0054]
在同一时刻下,比较不同联邦学习方案和下系统的模型测试准确率,不同联邦学习方案包括联邦平均、基于一致性的联邦平均、非合作训练、集中式训练和本发明的一种面向异构设备和复杂通信场景的联邦学习方法。如图3所示,对于上述不同的联邦学习方案,可以看出随着时间的增加,系统模型测试准确率不断增加。如图3所示,本发明的方法优于联邦平均方法和基于一致性的联邦平均方法,本发明方法所能实现的系统的测试准确率在相同时刻下始终优于上述两种方法,本发明的方法在同一时刻下远远不及集中式训练可以达到的准确率,这是因为联邦学习训练过程中,数据分布在不同的设备中,需要大量的通信时延造成的,这是不可避免的,本发明在分布式的系统模型下,利用不同设备上的数据实现了不断接近集中式训练最优性能的方案,保护了设备数据隐私。所以说,本发明所提出的联邦学习系统模型比集中式训练更具可行性。
[0055]
综上所述,本发明的联邦学习方法的时延低,具有良好的性能。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1