带时延发布的满足差分隐私的在线学习方法

文档序号:26612056发布日期:2021-09-11 00:10阅读:164来源:国知局
带时延发布的满足差分隐私的在线学习方法

1.本发明涉及隐私保护、机器学习领域,尤其涉及一种带时延发布的满足差分隐私的在线学习方法。


背景技术:

2.在线学习,作为机器学习的重要分支,其特点是基于用户的在线到达的反馈信息不断更新训练模型,并利用该模型为之后的用户提供服务。可以看到,若用户的反馈信息包含其隐私信息,则该训练过程可能通过模型将其隐私泄露给之后的用户。对于保护隐私的在线学习,一条重要的研究思路是使用差分隐私方法进行设计,即通过扰动(加噪)为该训练过程引入不确定性,从而使得攻击者无法通过模型准确推断用户的隐私信息。对于满足差分隐私的在线学习算法,现有的设计主要包含两条思路:1)直接对训练模型进行扰动;2)对训练过程中的一些中间结果进行扰动。另一方面,满足差分隐私的在线学习算法可以被推广到分布式场景。
3.现有的满足差分隐私的在线算法的误差(通过regret损失衡量,即模型的累计误差与最优单一模型对应误差的差值)大都远劣于非隐私在线学习的regret损失。


技术实现要素:

4.有鉴于此,本发明的主要目的在于提供一种带时延发布的满足差分隐私的在线学习方法,以期部分地解决上述技术问题中的至少之一。
5.为了实现上述目的,作为本发明的一方面,提供了一种带时延发布的满足差分隐私的在线学习方法,通过时延发布及加噪操作,实现较高精度的保护隐私的在线学习,包括:
6.选定隐私参数(∈,δ)及发布时间1≤t1<t2<

<t
m
≤t;
7.随机初始化并发布初始模型x1;
8.在时刻t=1,2,

,t,根据一定规则更新x
t
‑1得到若t∈{t1,t2,

,t
m
},则根据隐私参数(∈,δ)对加噪并发布加噪后的模型x
t

9.其中,还包括若t在t
i
到t
i+1
之间,学习方发布的模型为x
ti

10.其中,根据特定的在线学习问题,除隐私参数与发布时间外,还需选定模型可行域同时发布时间可不事先选定,而使用自适应的方式进行选择;若选定了模型可行域所述初始模型需落在模型可行域中。
11.其中,所述一定规则为在线学习模型更新方法,所述在线学习学习模型更新方法包括梯度法、follow the leader算法和hedge算法。
12.其中,所述根据一定规则更新x
t
‑1得到在更新过程中,若更新规则需要使用到之前的模型,根据实际需求及算法设计,能够使用加噪模型或加噪前的模型;若模型未更新,则学习方可以不发布模型,用户可直接调用上一次发布的模型,以此减少通信开销。
13.作为本发明的另一方面,提供了一种带时延发布的满足差分隐私的分布式在线学习方法,通过时延发布及加噪操作,实现较高精度的保护隐私的分布式在线学习,包括:
14.所有学习方选定隐私参数(∈,δ)及发布时间1≤t1<t2<

<t
m
≤t;每个学习方i∈{1,2,

,m}随机初始化并发布初始模型
15.在时刻t=1,2,

,t,根据一定规则更新x
t
‑1得到若t∈{t1,t2,

,t
m
},则根据隐私参数(∈,δ)对加噪并发布加噪后的模型x
t
,并将x
t
广播给其邻居学习方。
16.其中,还包括若t在t
i
到t
i+1
之间,学习方发布的模型为x
ti
并将其广播给邻居学习方。
17.其中,根据特定的在线学习问题,除隐私参数与发布时间外,还需选定模型可行域同时发布时间可不事先选定,而使用自适应的方式进行选择;若选定了模型可行域所述初始模型需落在模型可行域中。
18.其中,所述一定规则为分布式在线学习模型更新方法,所述分布式在线学习学习模型更新方法包括梯度法。
19.其中,所述根据一定规则更新x
t
‑1得到在更新过程中,若模型未更新,则学习方可以不发布模型,用户可直接调用上一次发布的模型,以此减少通信开销。
20.基于上述技术方案可知,本发明的带时延发布的满足差分隐私的在线学习方法相对于现有技术至少具有如下有益效果之一:
21.1)由于发布轮数较少,相应隐私损失较少,通过合理地控制发布轮数,在相同的隐私损失预算下,可得到更小的regret损失;
22.2)发布轮数较少,因而通信开销较小。
附图说明
23.图1为本发明实施例提供的带时延发布的满足差分隐私的在线学习算法流程示意图;
24.图2为本发明实施例提供的带时延发布的满足差分隐私的分布式在线学习算法流程示意图。
具体实施方式
25.本发明的目的是提供一种带时延发布的满足差分隐私的在线学习算法,能够降低满足差分隐私的在线学习算法的误差,且具有更低的通信开销。
26.为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步的详细说明。
27.如图1所示,本发明实施方式提供一种带时延发布的满足差分隐私的在线学习算法,通过时延发布及加噪操作,实现较高精度的保护隐私的在线学习,方法包括:
28.步骤1,选定隐私参数(∈,δ)及发布时间1≤t1<t2<

<t
m
≤t;
29.步骤2,随机初始化并发布初始模型x1;
30.步骤3,在时刻t=1,2,

,t,根据一定规则更新若t∈{t1,t2,

,t
m
},则根据隐
私参数(∈,δ)对加噪并发布加噪后的模型(记为x
t
),若不然,则发布
31.如图2所示,本发明实施方式提供一种带时延发布的满足差分隐私的分布式在线学习算法,通过时延发布及加噪操作,实现较高精度的保护隐私的分布式在线学习,方法包括:
32.步骤1,所有学习方选定隐私参数(∈,δ)及发布时间1≤t1<t2<

<t
m
≤t;
33.步骤2,每个学习方i∈{1,2,

,m}随机初始化并发布初始模型
34.步骤3,在时刻t=1,2,

,t,根据一定规则更新若t∈{t1,t2,

,t
m
},则根据隐私参数(∈,δ)对加噪并发布加噪后的模型(记为x
t
),并将x
t
广播给其邻居学习方,若不然,则发布并将其广播给邻居学习方。
35.本发明的方法,通过时延发布及加噪,实现较高精度的保护隐私的在线学习。由于发布轮数较少,本发明具有隐私损失较低及通信开销较小的优点,且在相同的隐私损失预算下精度较高,适用于有隐私保护需求的(分布式)在线学习场景。
36.下面对本发明实施例具体作进一步地详细描述。
37.本发明实施例提供的带时延发布的满足差分隐私的在线学习算法,主要包括以下步骤:
38.步骤1,选定隐私参数(∈,δ)及发布时间1≤t1<t2<

<t
m
≤t;
39.步骤2,随机初始化并发布初始模型x1;
40.步骤3,在时刻t=1,2,

,t,根据一定规则更新若t∈{t1,t2,

,t
m
},则根据隐私参数(∈,δ)对加噪并发布加噪后的模型(记为x
t
),若不然,则发布
41.其中,各步骤具体如下:
42.步骤1,对特定的在线学习问题,除隐私参数与发布时间外,可能还需选定模型可行域同时发布时间亦可不事先选定,而使用自适应等方式进行选择。
43.步骤2,初始化模型需落在模型可行域中。
44.步骤3,常用的在线学习模型更新方法包括梯度法、follow the leader算法、hedge算法等;在更新过程中,若更新规则需要使用到之前的模型,根据实际需求及算法设计,可使用加噪模型或加噪前的模型;若模型未更新,则学习方可以不发布模型,用户可直接调用上一次发布的模型,以此减少通信开销。
45.本发明实施例提供的带时延发布的满足差分隐私的分布式在线学习算法,主要包括以下步骤:
46.步骤1,所有学习方选定隐私参数(∈,δ)及发布时间1≤t1<t2<

<t
m
≤t;
47.步骤2,每个学习方i∈{1,2,

,m}随机初始化并发布初始模型
48.步骤3,在时刻t=1,2,

,t,根据一定规则更新若t∈{t1,t2,

,t
m
},则根据隐私参数(∈,δ)对加噪并发布加噪后的模型(记为x
t
),并将x
t
广播给其邻居学习方,若不然,则发布并将其广播给邻居学习方。
49.其中,各步骤具体如下:
50.步骤1,对特定的在线学习问题,除隐私参数与发布时间外,可能还需选定模型可行域同时发布时间亦可不事先选定,而使用自适应等方式进行选择。
51.步骤2,初始化模型需落在模型可行域中。
52.步骤3,常用的分布式在线学习模型更新方法包括梯度法;若模型未更新,则学习方可以不发布模型,用户可直接调用上一次发布的模型,以此减少通信开销。
53.由于发布轮数较少,本发明具有隐私损失较低及通信开销较小的优点,且在相同的隐私损失预算下精度较高,适用于有隐私保护需求的(分布式)在线学习场景。
54.以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1