期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
联邦原型学习的特征图中毒攻击和双重防御机制 被引量:2
1
作者 王瑞锦 王金波 +3 位作者 张凤荔 李经纬 李增鹏 陈厅 《软件学报》 北大核心 2025年第3期1355-1374,共20页
联邦学习是一种无需用户共享私有数据、以分布式迭代协作训练全局机器学习模型的框架.目前流行的联邦学习方法FedProto采用抽象类原型(称为特征图)聚合,优化模型收敛速度和泛化能力.然而,该方法未考虑所聚合的特征图的正确性,而错误的... 联邦学习是一种无需用户共享私有数据、以分布式迭代协作训练全局机器学习模型的框架.目前流行的联邦学习方法FedProto采用抽象类原型(称为特征图)聚合,优化模型收敛速度和泛化能力.然而,该方法未考虑所聚合的特征图的正确性,而错误的特征图可能导致模型训练失效.为此,首先探索针对FedProto的特征图中毒攻击,论证攻击者只需通过置乱训练数据的标签,便可将模型的推测准确率至多降低81.72%.为了抵御上述攻击,进一步提出双重防御机制,分别通过全知识蒸馏和特征图甄别排除错误的特征图.基于真实数据集的实验表明,防御机制可将受攻击模型的推测准确率提升1-5倍,且仅增加2%系统运行时间. 展开更多
关键词 联邦学习 数据异构 知识蒸馏 特征图中毒攻击 双重防御机制
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部