基于联合学习的联合推荐框架的方法、装置、计算机设备及计算机可读存储介质与流程

文档序号:32784624发布日期:2023-01-03 17:44阅读:50来源:国知局
基于联合学习的联合推荐框架的方法、装置、计算机设备及计算机可读存储介质与流程

1.本公开涉及人工智能技术领域,尤其涉及一种基于联合学习的联合推荐框架的方法、装置、计算机设备及计算机可读存储介质。


背景技术:

2.随着互联网高速发展,用户越来越注重于实现自我价值,在各方面看重个性化。同时用户对于自己的数据隐私也越来越关注。在保护用户隐私的前提下给与用户个性化推荐成为大家研究的重点。


技术实现要素:

3.有鉴于此,本公开实施例提供了一种基于联合学习的联合推荐框架的方法、装置、计算机设备及计算机可读存储介质,可以在不泄露或汇聚各方原始数据的前提下进行联合建模,保持训练数据的去中心化和分散化。
4.本公开实施例的第一方面,提供了一种基于联合学习的联合推荐框架的方法,包括:
5.在联合学习的中心节点端预收集相关数据进行数据预训练;
6.将所述预训练的数据训练神经网络的浅层模型;
7.响应于所述用户端节点,选择带权重的不同聚合方式将所述浅层模型下发到用户端节点。
8.本公开实施例的第二方面,提供了一种基于联合学习的联合推荐框架的方法,包括:
9.用户端节点冻结神经网络中浅层网络的参数;
10.训练神经网络的深层网络的参数;
11.对所述深层网络的参数进行本地模型训练;
12.将训练出的所述本地模型上传至联合学习中心点端。
13.本公开实施例的第三方面,提供了一种基于联合学习的联合推荐框架的装置,包括:
14.预训练模块,用于在联合学习的中心节点端预收集相关数据进行数据预训练;
15.处理模块,用于将所述预训练的数据训练神经网络的浅层模型;
16.传输模块,用于响应于所述用户端节点,选择带权重的不同聚合方式将所述浅层模型下发到用户端节点。
17.本公开实施例的第四方面,提供了一种基于联合学习的联合推荐框架的装置,包括:
18.收集模块,用于用户端节点冻结神经网络中浅层网络的参数;
19.第一训练模块,用于训练神经网络的深层网络的参数;
20.第二训练模块,用于对所述深层网络的参数进行本地模型训练;
21.上传模块,用于将训练出的所述本地模型上传至联合学习中心点端。
22.本公开实施例的第五方面,提供了一种计算机设备,包括存储器、处理器以及存储在存储器中并且可以在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
23.本公开实施例的第六方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
24.本公开实施例与现有技术相比存在的有益效果是:通过在联合学习的中心节点端预收集相关数据进行数据预训练;将所述预训练的数据训练神经网络的浅层模型;响应于所述用户端节点,选择带权重的不同聚合方式将所述浅层模型下发到用户端节点。用户端节点冻结神经网络中浅层网络的参数;训练神经网络的深层网络的参数;对所述深层网络的参数进行本地模型训练;将训练出的所述本地模型上传至联合学习中心点端。通过上述方法可以在不泄露或汇聚各方原始数据的前提下进行联合建模,保持训练数据的去中心化和分散化。
附图说明
25.为了更清楚地说明本公开实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
26.图1是本公开实施例的应用场景的场景示意图;
27.图2是本公开实施例提供的一种基于联合学习的联合推荐框架的方法的流程图;
28.图3是本公开实施例提供的另一种基于联合学习的联合推荐框架的方法的流程图;
29.图4是本公开实施例提供的再一种基于联合学习的联合推荐框架的装置的框图;
30.图5是本公开实施例提供的一种基于联合学习的联合推荐框架的装置的框图;
31.图6是本公开实施例提供的再一种基于联合学习的联合推荐框架的方法的传输示意图;
32.图7是本公开实施例提供的一种计算机设备的示意图。
具体实施方式
33.以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本公开实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本公开。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本公开的描述。
34.下面将结合附图详细说明根据本公开实施例的一种基于联合学习的联合推荐框架的方法和装置。
35.图1是本公开实施例的应用场景的场景示意图。该应用场景可以包括终端设备1、2和3、服务器4以及网络5。
36.终端设备1、2和3可以是硬件,也可以是软件。当终端设备1、2和3为硬件时,其可以是具有显示屏且支持与服务器4通信的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等;当终端设备1、2和3为软件时,其可以安装在如上所述的电子设备中。终端设备1、2和3可以实现为多个软件或软件模块,也可以实现为单个软件或软件模块,本公开实施例对此不作限制。进一步地,终端设备1、2和3上可以安装有各种应用,例如数据处理应用、即时通信工具、社交平台软件、搜索类应用、购物类应用等。
37.服务器4可以是提供各种服务的服务器,例如,对与其建立通信连接的终端设备发送的请求进行接收的后台服务器,该后台服务器可以对终端设备发送的请求进行接收和分析等处理,并生成处理结果。服务器4可以是一台服务器,也可以是由若干台服务器组成的服务器集群,或者还可以是一个云计算服务中心,本公开实施例对此不作限制。
38.需要说明的是,服务器4可以是硬件,也可以是软件。当服务器4为硬件时,其可以是为终端设备1、2和3提供各种服务的各种电子设备。当服务器4为软件时,其可以实现为终端设备1、2和3提供各种服务的多个软件或软件模块,也可以实现为终端设备1、2和3提供各种服务的单个软件或软件模块,本公开实施例对此不作限制。
39.网络5可以是采用同轴电缆、双绞线和光纤连接的有线网络,也可以是无需布线就能实现各种通信设备互联的无线网络,例如,蓝牙(bluetooth)、近场通信(near field communication,nfc)、红外(infrared)等,本公开实施例对此不作限制。
40.用户可以通过终端设备1、2和3经由网络5与服务器4建立通信连接,以接收或发送信息等。具体地,在用户将收集到的兴趣点的数据导入到服务器4之后,服务器4获取待处理兴趣点的第一数据,该第一数据包括待处理兴趣点的第一经纬度和第一分类,并根据第一经纬度和第一分类,对待处理兴趣点进行冲突校验;进一步地,在确定冲突的情况下,服务器4对待处理兴趣点进行冲突处理,以避免数据库中存在大量的重复数据和不可用数据。
41.需要说明的是,终端设备1、2和3、服务器4以及网络5的具体类型、数量和组合可以根据应用场景的实际需求进行调整,本公开实施例对此不作限制。
42.本发明所指的联合学习是可用于支持多用户进行多方合作,并通过ai技术联合多方合作挖掘数据价值,建立智能联合建模。其中,智能联合建模包括:
43.1)参与节点控制自有数据的弱中心化联合训练模式,确保共创智能过程中的数据隐私安全;
44.2)在不同应用场景下,利用筛选和/或组合ai算法、隐私保护计算,建立多种模型聚合优化策略;以获取高层次、高质量的模型;
45.3)确保数据安全及用户隐私的前提下,基于多种模型聚合优化策略,获取提升联合学习引擎的效能方法,其中效能方法可以是通过解决包括计算架构并行、大规模跨域网络下的信息交互、智能感知、异常处理机制等,提升联合学习引擎的整体效能;
46.4)获取各场景下多方用户的需求,通过互信机制,确定合理评估各联合参与方的真实贡献度,进行分配激励;
47.基于上述方式,可以建立基于联合学习的ai技术生态,充分发挥行业数据价值,推动垂直领域的场景落地。
48.图2是本公开实施例提供的一种基于联合学习的联合推荐框架的方法的流程图。图2的基于联合学习的联合推荐框架的方法可以由图1的终端设备或服务器执行。如图2所
示,该基于联合学习的联合推荐框架的方法包括:
49.s201,在联合学习的中心节点端预收集相关数据进行数据预训练;
50.s202,将预训练的数据训练神经网络的浅层模型;
51.s203,响应于用户端节点,选择带权重的不同聚合方式将浅层模型下发到用户端节点。
52.具体地,可以通过响应于用户端节点;然后,对用户端上传的模型进行聚合。
53.图3的基于联合学习的联合推荐框架的方法可以由图1的终端设备或服务器执行。如图3所示,该基于联合学习的联合推荐框架的方法包括:
54.s301,用户端节点冻结神经网络中浅层网络的参数;
55.s302,训练神经网络的深层网络的参数;
56.s303,对深层网络的参数进行本地模型训练;
57.具体地,可通过获取全局模型中的可显参数,其中可显参数包含本地参数和收集参数;对可显参数进行本地模型训练。
58.s304,将训练出的本地模型上传至联合学习中心点端。
59.根据本公开实施例提供的技术方案,通过在联合学习的中心节点端预收集相关数据进行数据预训练;将预训练的数据训练神经网络的浅层模型;响应于用户端节点,选择带权重的不同聚合方式将所述浅层模型下发到用户端节点。用户在端节点通过冻结神经网络中浅层网络的参数;训练神经网络的深层网络的参数;对深层网络的参数进行本地模型训练;将训练出的本地模型上传至联合学习中心点端。本公开实施例可以在不泄露或汇聚各方原始数据的前提下进行联合建模,保持训练数据的去中心化和分散化,实现在保护用户隐私的前提下给与用户个性化推荐。
60.上述所有可选技术方案,可以采用任意结合形成本技术的可选实施例,在此不再一一赘述。
61.下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
62.图4是本公开实施例提供的一种基于联合学习的联合推荐框架装置的示意图。如图4所示,该基于联合学习的联合推荐框架装置包括:
63.预训练模块401,被配置为用于在联合学习的中心节点端预收集相关数据进行数据预训练;
64.处理模块402,被配置为用于将预训练的数据训练神经网络的浅层模型
65.传输模块403,被配置为用于响应于所述用户端节点,选择带权重的不同聚合方式将所述浅层模型下发到用户端节点。
66.其中,传输模块403还包括:
67.响应子模块,用于响应于用户端节点;
68.聚合子模块,用于对用户端上传的模型进行聚合。
69.图5是本公开实施例提供的一种基于联合学习的联合推荐框架装置的示意图。如图5所示,该基于联合学习的联合推荐框架装置包括:
70.收集模块501,用于用户端节点冻结神经网络中浅层网络的参数;
71.第一训练模块502,用于训练神经网络的深层网络的参数;
72.第二训练模块503,用于对所述深层网络的参数进行本地模型训练;
73.上传模块504,用于将训练出的所述本地模型上传至联合学习中心点端。
74.其中,第二训练模块503还包括:
75.获取子模块,用于获取全局模型中的可显参数,其中可显参数包含本地参数和收集参数;
76.训练子模块,用于对可显参数进行本地模型训练。
77.根据本公开实施例提供的技术方案,通过在中心节点端设置预训练模块、处理模块和传输模块;在用户端节点设置收集模块、第一训练模块,第二训练模块和上传模块。可以在不泄露或汇聚各方原始数据的前提下进行联合建模,保持训练数据的去中心化和分散化,实现在保护用户隐私的前提下给与用户个性化推荐。
78.如图6所示,本公开实施例提供的一种基于联合学习的联合推荐框架中心节点端与用户端节点之前的传输过程,如下所示:
79.中心节点端包含n个层(layer1,layer2,....,layern-1,layern);用户端包含n个节点,并且包含了fix数据训练层和fun-turning模型训练层。
80.在联合学习的中心节点端预收集相关数据进行预训练,冻结深层的网络模型参数只训练浅层的神经网络;中心节点模型下发至用户节点端,用户端冻结浅层网络参数只训练深层次的神经网络参数,浅层模型学习到所有用户的公共特征,深层模型学习到局部数据的专有特性,训练得到的个性化模型在本地的泛化性能更好。
81.在用户端进行训练,中心端可以选择带权重的不同聚合方式,在中心端对节点上传的模型进行聚合,然后模型下发至用户端,用户端在下次训练过程中只利用全局模型的一部分参数(可显参数),具体做法是在训练过程中把这部分模型的神经网络参数固定不进行更新,剩下的参数利用各自本地的数据训练,更新自己那部分的参数。重复训练迭代训多轮,能获得在用户端性能更好的个性化联合推荐模型。
82.应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本公开实施例的实施过程构成任何限定。
83.图7是本公开实施例提供的计算机设备7的示意图。如图7所示,该实施例的计算机设备7包括:处理器701、存储器702以及存储在该存储器702中并且可以在处理器701上运行的计算机程序703。处理器701执行计算机程序703时实现上述各个方法实施例中的步骤。或者,处理器701执行计算机程序703时实现上述各装置实施例中各模块/单元的功能。
84.示例性地,计算机程序703可以被分割成一个或多个模块/单元,一个或多个模块/单元被存储在存储器702中,并由处理器701执行,以完成本公开。一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序703在计算机设备7中的执行过程。
85.计算机设备7可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算机设备。计算机设备7可以包括但不仅限于处理器701和存储器702。本领域技术人员可以理解,图7仅仅是计算机设备7的示例,并不构成对计算机设备7的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如,计算机设备还可以包括输入输出设备、网络接入设备、总线等。
86.处理器701可以是中央处理单元(central processing unit,cpu),也可以是其它通用处理器、数字信号处理器(digital signal processor,dsp)、专用集成电路(application specific integrated circuit,asic)、现场可编程门阵列(field-programmable gate array,fpga)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
87.存储器702可以是计算机设备7的内部存储单元,例如,计算机设备7的硬盘或内存。存储器702也可以是计算机设备7的外部存储设备,例如,计算机设备7上配备的插接式硬盘,智能存储卡(smart media card,smc),安全数字(secure digital,sd)卡,闪存卡(flash card)等。进一步地,存储器702还可以既包括计算机设备7的内部存储单元也包括外部存储设备。存储器702用于存储计算机程序以及计算机设备所需的其它程序和数据。存储器702还可以用于暂时地存储已经输出或者将要输出的数据。
88.所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本技术的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
89.在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
90.本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本公开的范围。
91.在本公开所提供的实施例中,应该理解到,所揭露的装置/计算机设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/计算机设备实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
92.作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
93.另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
94.集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本公开实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、u盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(read-only memory,rom)、随机存取存储器(random access memory,ram)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
95.以上实施例仅用以说明本公开的技术方案,而非对其限制;尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开各实施例技术方案的精神和范围,均应包含在本公开的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1