期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于梯度放大的联邦学习激励欺诈攻击与防御 被引量:1
1
作者 乐紫莹 陈珂 +2 位作者 寿黎但 骆歆远 陈刚 《软件学报》 北大核心 2025年第5期2254-2269,共16页
在联邦学习领域,激励机制是吸引高质量数据持有者参与联邦学习并获得更优模型的重要工具.然而,现有的联邦学习研究鲜有考虑到参与者可能滥用激励机制的情况,也就是他们可能会通过操纵上传的本地模型信息来获取更多的奖励.针对这一问题... 在联邦学习领域,激励机制是吸引高质量数据持有者参与联邦学习并获得更优模型的重要工具.然而,现有的联邦学习研究鲜有考虑到参与者可能滥用激励机制的情况,也就是他们可能会通过操纵上传的本地模型信息来获取更多的奖励.针对这一问题进行了深入研究.首先,明确定义联邦学习中的参与者激励欺诈攻击问题,并引入激励成本比来评估不同激励欺诈攻击方法的效果以及防御方法的有效性.其次,提出一种名为“梯度放大攻击(gradient scale-up attack)”的攻击方法,专注于对模型梯度进行激励欺诈.这种攻击方法计算出相应的放大因子,并利用这些因子来提高本地模型梯度的贡献,以获取更多奖励.最后,提出一种高效的防御方法,通过检验模型梯度的二范数值来识别欺诈者,从而有效地防止梯度放大攻击.通过对MNIST等数据集进行详尽地分析和实验验证,研究结果表明,所提出的攻击方法能够显著提高奖励,而相应的防御方法能够有效地抵制欺诈参与者的攻击行为. 展开更多
关键词 联邦学习 激励欺诈攻击 梯度放大攻击 恶意参与者检测 安全保护
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部