一种基于本地特征的大模型切割联邦学习方法及系统

文档序号:37017192发布日期:2024-02-09 13:08阅读:24来源:国知局
一种基于本地特征的大模型切割联邦学习方法及系统

本发明涉及联邦学习领域,特别是一种基于本地特征的大模型切割联邦学习方法及系统。


背景技术:

1、近年来,联邦学习成为受到广泛关注的机器学习框架,可以有效解决现有数据孤岛问题。但是在实际应用中,联邦学习面临着一些挑战。首先,各个客户端之间的数据集通常是异构的,这导致在处理大型模型训练时效率较低,进而影响到全局大模型的聚合结果。其次,由于客户端资源的限制,处理大规模模型训练变得非常低效。此外,梯度上传过程中存在潜在的风险,可能会受到推理攻击和反演攻击的威胁。

2、传统的客户端采样方法没有考虑到恶意客户端的存在,低质量的本地模型会对全局大模型的收敛速度产生负面影响。同时,传统的联邦学习框架往往会带来巨大的通信开销。


技术实现思路

1、鉴于现有的客户端间数据集异构性导致的聚合困难、平衡数据隐私和可用性的关系以及恶意客户端上传低质量模型参数引起的收敛困难问题,提出了本发明。

2、因此,本发明所要解决的问题在于如何采用联邦学习、差分隐私、安全评估机制、模型压缩和分布式推理等技术以提高模型的聚合能力、保护数据隐私并鼓励高质量参与者的参与,同时降低模型的计算和通信成本。

3、为解决上述技术问题,本发明提供如下技术方案:

4、第一方面,本发明实施例提供了基于本地特征的大模型切割联邦学习方法,其包括客户端模块c接收中央服务器模块cs下发的全局大模型、全局大模型参数和测试数据集,并根据自身训练特征对全局大模型进行切割以生成适合本地高效训练的本地小模型;客户端在本地小模型上进行本地训练,并更新本地小模型参数,同时计算本地小模型在测试数据集上的精确度和损失函数的梯度;客户端根据预设的精确度变化-隐私预算分配策略决定本轮梯度扰动的隐私预算,并对梯度进行加噪处理;完成梯度加噪后,客户端通过本地小模型参数压缩算法对更新后的本地小模型参数进行压缩,并将压缩后的本地小模型参数和加噪后的梯度异步上传至异常检测和选择模块ds;异常检测和选择模块ds通过n轮交互完成异常客户端信誉度检测阈值协商,并在接收上传参数后更新全局信誉度和本地信誉度;异常检测和选择模块ds根据信誉度检测阈值协商检测恶意终端,并将全局信誉度以及全局信誉度所对应的压缩模型参数上传至中央服务器模块cs;中央服务器模块cs根据全局信誉度对客户端进行二次采样,使用还原聚合方式更新全局大模型,并将聚合后的全局大模型参数下发至客户端,直至大模型收敛。

5、作为本发明所述基于本地特征的大模型切割联邦学习方法的一种优选方案,其中:根据自身训练特征对全局大模型进行切割以生成适合本地高效训练的本地小模型包括以下步骤:中央服务器模块cs下发全局大模型和全局大模型参数到所有参与训练的客户端;客户端接收全局大模型和初始全局大模型参数,并在全局大模型上执行轮本地预训练以获得客户端最终的特征挖掘模型和特征挖掘模型参数;客户端根据特征挖掘模型参数和初始全局大模型参数计算参数相似度矩阵;客户端将相似度矩阵中相似度大于0.95的模型参数所对应的神经网络进行切割,以生成适合本地高效训练的本地小模型和本地小模型参数;初始全局大模型参数的具体公式如下:

6、;

7、其中,为第层神经网络,为大模型结构的第层神经网络的第个模型参数,为第层神经网络中模型参数个数,为神经网络总层数,为神经网络层数,为神经网络某层的标号。

8、特征挖掘模型和特征挖掘模型参数的训练过程具体如下:

9、;

10、其中,为特征挖掘阶段的训练轮次,为客户端的标号,为特征挖掘模型标识,为客户端的学习率,为对变量求偏导,为客户端的第t轮特征挖掘模型的梯度,表示损失函数,表示客户端的样本及其对应的标签,为第t轮特征挖掘模型参数;

11、参数相似度矩阵的具体公式如下:

12、;

13、其中,为两个神经网络第m层第n个参数的相似度,具体公式如下:

14、;

15、其中,为全局大模型的第层神经网络的第个模型参数,为特征挖掘模型的第层神经网络的第个模型参数,为神经网络层数。

16、作为本发明所述基于本地特征的大模型切割联邦学习方法的一种优选方案,其中:所述本地小模型参数压缩算法包括以下步骤:通过设定模型参数阈值筛选对训练效果有贡献的重要模型参数,并将无用的本地小模型参数进行稀疏化处理;对稀疏化处理后的本地小模型参数进行压缩量化以获得压缩值中心点和压缩本地小模型参数;稀疏化处理的具体过程如下:

17、;

18、其中,表示模型参数值阈值,为本地小模型的第层神经网络的第个原始模型参数,为本地小模型的第层神经网络的第个稀疏化之后的模型参数。

19、压缩值中心点的具体公式如下:

20、;

21、其中,为压缩因子,具体公式如下:

22、;

23、其中,为压缩后的本地小模型参数取值最小值,为压缩后的本地小模型参数取值最大值,为原始的本地小模型参数取值最小值,为原始的本地小模型参数取值最大值。

24、作为本发明所述基于本地特征的大模型切割联邦学习方法的一种优选方案,其中:对梯度进行加噪处理包括以下步骤:在客户端模块c中,为客户端设置最大隐私预算和最小隐私预算;在本地小模型训练前期阶段,客户端根据精确度变化来动态调整每一轮的隐私预算,当精确度不再提升或变化浮动范围不超过时,客户端增加隐私预算以降低噪声水平;在本地小模型训练后期阶段,采用一种多项式线性增长函数以解决隐私预算影响模型的收敛速度问题;精确度变化-隐私预算分配策略包括以下内容:全局大模型精确度-客户端本地小模型精确度:

25、;

26、其中,为全局大模型第t轮的精确度,为客户端本地小模型第t轮的精确度,为最大隐私预算,为隐私预算的增长率,为客户端第t轮的隐私预算,为客户端第t-1轮的隐私预算。

27、前一轮全局大模型精确度-当前轮次全局大模型精确度:

28、;

29、其中,为全局大模型第t-1轮的精确度,为全局大模型第t轮的精确度,为最大隐私预算,为隐私预算的增长率,为客户端第t轮的隐私预算,为客户端第t-1轮的隐私预算。

30、前一轮本地小模型精确度-当前轮次本地小模型精确度:

31、;

32、其中,为客户端本地小模型第t-1轮的精确度,为客户端本地模型第t轮的精确度,为最大隐私预算,为隐私预算的增长率,为客户端第t轮的隐私预算,为客户端第t-1轮的隐私预算。

33、当全局模型训练精度变化超过阈值时,以倍数增加隐私预算;当隐私预算大于时,隐私预算不再增加,直到整体隐私预算耗尽;多项式线性增长函数的具体公式如下:

34、;

35、其中,为最小隐私预算,t表示当前训练轮次,表示预定训练轮次,为最大隐私预算。

36、作为本发明所述基于本地特征的大模型切割联邦学习方法的一种优选方案,其中:异常检测和选择模块ds根据信誉度检测阈值协商检测恶意终端包括以下步骤:异常检测和选择模块ds初始化全部客户端的全局信誉度和本地信誉度;异常检测和选择模块ds接收客户端上传的第t轮训练的加噪的梯度和压缩后的本地小模型参数,并计算其本地信誉度;当且异常检测和选择模块ds计算完成全部客户端的本地信誉度后,将本地信誉度按照降序排序得到序列,并记录阈值和分别为和,同时以轮的平均值作为阈值和的协商值;异常检测和选择模块ds利用本地信誉度和阈值和之间的关系检测判断客户端的类别;异常检测和选择模块ds更新客户端的全局信誉度,并将全局信誉度及其对应的压缩后的本地小模型参数组成二元组,并上传至中央服务器模块cs;客户端的类别包括恶意客户端mc、普通客户端gc和高质量客户端hqc,判断准则具体如下:当时,异常检测和选择模块ds将客户端设置为恶意客户端mc,并禁止节点继续参与此联邦学习模型训练任务;当时,异常检测和选择模块ds将客户端设置为普通客户端gc,并统计客户端被认定为普通客户端gc的次数,若次数大于阈值,则禁止继续参与本次联合学习模型训练任务;当时,异常检测和选择模块ds将客户端设置为高质量客户端hqc,允许并鼓励其继续参与此联邦学习模型训练任务。

37、作为本发明所述基于本地特征的大模型切割联邦学习方法的一种优选方案,其中:使用还原聚合方式更新全局大模型包括以下步骤:中央服务器模块cs异步接收异常检测和选择模块ds上传的二元组,并存储在大小为的缓冲池内;中央服务器模块cs对缓冲池中的二元组以全局信誉度为主元对辅元压缩后的本地小模型参数降序排序,并剔除缓冲池排序中全局信誉度低于0.3的本地小模型参数,直到缓冲池满;中央服务器模块cs对选择的客户端的压缩的本地小模型参数进行操作,恢复并还原为稀疏化的本地小模型参数;对稀疏化的各客户端的本地小模型参数与全局大模型参数执行次基于特征迁移的聚合操作;获取经过特征迁移聚合后的第t轮全局大模型,中央服务器模块cs将聚合后的全局大模型参数下发继续训练直至模型收敛。

38、作为本发明所述基于本地特征的大模型切割联邦学习方法的一种优选方案,其中:所述第t轮全局大模型的聚合公式具体如下:

39、;

40、其中,为全局第t轮下第j次特征迁移聚合的大模型,为学习率,为特征迁移聚合下的损失函数,表示客户端的本地数据集的样本个数,为模型在测试数据集上激活函数输出。

41、第二方面,本发明实施例提供了一种基于本地特征的大模型切割联邦学习系统,其包括客户端模块c,包含参与整个训练过程的恶意客户端mc、普通客户端gc和高质量客户端hqc,用于将全局大模型切割为本地小模型,并在其上进行多轮训练以获得更优的模型,并依据训练的本地小模型在测试数据集上的精确度设计隐私预算分配策略以对梯度进行扰动,同时执行压缩量化算法对训练的切割后的模型压缩后上传至异常检测和选择模块ds;异常检测和选择模块ds,作为客户端模块c和中央服务器模块cs之间的中转站,接收来自客户端模块c中经过加噪处理的梯度,并利用这些梯度计算客户端的信誉度以确定客户端的可信程度,同时负责将本地小模型参数可信上传至中央服务器模块cs;中央服务器模块cs,作为整个框架大模型更新的核心部分,用于在接收异常检测和选择模块ds所发送的全局信誉度和本地小模型参数后,执行基于缓冲池的客户端本地小模型参数二次采样,对接收到的本地模型参数进行解压缩并实现大模型聚合。

42、第三方面,本发明实施例提供了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其中:所述计算机程序指令被处理器执行时实现如本发明第一方面所述的基于本地特征的大模型切割联邦学习方法的步骤。

43、第四方面,本发明实施例提供了一种计算机可读存储介质,其上存储有计算机程序,其中:所述计算机程序指令被处理器执行时实现如本发明第一方面所述的基于本地特征的大模型切割联邦学习方法的步骤。

44、本发明有益效果为:本发明针对客户端数据特征对全局模型进行切割得到适用于本地训练的小模型以提高训练效率和收敛速度;通过对客户端设置本地和全局信誉度以检测客户端类别,针对不同类别设置不同的处置策略,进而实现高质量聚合加快模型收敛速度;通过对本地模型参数进行量化压缩,减少通信数据包传输,降低客户端和中央服务器通信压力。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1