-
题名参数解耦在差分隐私保护下的联邦学习中的应用
- 1
-
-
作者
王梓行
杨敏
魏子重
-
机构
空天信息安全与可信计算教育部重点实验室(武汉大学国家网络安全学院)
浪潮集团科学研究院
-
出处
《计算机科学》
CSCD
北大核心
2024年第11期379-388,共10页
-
基金
国家自然科学基金(62172308)
国家重点基础研究发展计划(2021YFB2700200)。
-
文摘
联邦学习(Federated Learning,FL)是一种先进的隐私保护机器学习技术,其通过多方协作,在无需集中聚合原始数据的情况下,交换模型参数以训练共享模型。尽管在FL中参与方不需要显式地共享数据,但许多研究表明,其仍然面临多种隐私推理攻击,从而导致隐私信息泄露。为应对这一问题,学术界提出了多种解决方案。其中,一种严格保障隐私的方法是将本地化差分隐私(Local Differential Privacy,LDP)技术应用于联邦学习。该技术在参与方上传模型参数前对其添加随机噪声,能有效地抵御恶意攻击者的推理攻击。然而,LDP引入的噪声会造成模型性能下降。同时,最新研究指出,这种性能下降与LDP在客户端之间引入了额外的异构性有关。针对LDP使得FL性能下降的问题,提出了差分隐私保护下基于参数解耦的联邦学习方案(PD-LDPFL):除了服务器下发的基础模型外,每个客户端在本地还额外学习了个性化输入和输出模型。该方案在客户端传输时仅上传添加噪声后的基础模型的参数,而个性化模型的参数被保留在本地,自适应改变客户端本地数据的输入和输出分布,缓解LDP引入的额外异构性以减少精度损失。此外,研究发现,即使在采用较高的隐私预算的情况下,该方案也能天然地抵御一些基于梯度的隐私推理攻击,如深度梯度泄露等攻击方法。在MNIST,FMNIST和CIFAR-10这3个常用数据集上进行了实验,结果表明:相比传统的差分隐私联邦学习方法,该方案不仅可以获得更好的性能,而且还提供了额外的安全性。
-
关键词
联邦学习
差分隐私
异构性
参数解耦
隐私保护
-
Keywords
Federated learning
Differential privacy
Heterogeneity
Parameter decoupling
Privacy preserving
-
分类号
TP309
[自动化与计算机技术—计算机系统结构]
-