-
题名一种结合数据集蒸馏的联邦学习隐私保护方法
- 1
-
-
作者
王春东
张清华
付浩然
-
机构
天津理工大学计算机科学与工程学院
“计算机病毒防治技术”国家工程实验室
-
出处
《计算机科学》
北大核心
2025年第S1期924-930,共7页
-
基金
国家自然科学基金项目(U1536122)
天津市教委联合基金(2021YJSB252)
天津市科委重大专项(15ZXDSGX00030)。
-
文摘
联邦学习通过交换模型参数而不是数据的方式来训练得到全局模型,以达成隐私保护的目的。但大量研究表明,攻击者可以通过截取到的梯度反推出原始的训练数据,导致客户端的隐私泄露。此外,不同客户端采样方式的不同会导致收集到的数据呈现出非独立同分布的现象,这种数据异质性会影响到整体模型的训练性能。为应对梯度反演攻击,将数据蒸馏方法引入到联邦学习框架中,同时结合数据增强方式加强合成数据的可用性。此外,针对不同机构的医疗数据存在的数据异质性问题,将批量归一化层引入客户端,以缓解客户端漂移现象,提高整体模型的性能表现。实验结果表明,在获得与其他联邦学习范式相近性能的同时,结合数据蒸馏的联邦学习方法也提高了对医疗数据隐私的保护力度。
-
关键词
联邦学习
隐私保护
数据蒸馏
图像分类
数据异质性
-
Keywords
Federated learning
Privacy protection
Data distillation
Image classification
Data heterogeneity
-
分类号
TP183
[自动化与计算机技术—控制理论与控制工程]
-
-
题名一种基于CutMix的增强联邦学习框架
- 2
-
-
作者
王春东
杜英琦
莫秀良
付浩然
-
机构
“计算机病毒防治技术”国家工程实验室
“学习型智能系统”教育部工程研究中心
天津理工大学计算机科学与工程学院
-
出处
《计算机科学》
CSCD
北大核心
2023年第S02期913-920,共8页
-
文摘
联邦学习(Federated Learning)的出现解决了传统机器学习中存在的“数据孤岛”问题,能够在保护客户端本地数据隐私的前提下进行集体模型的训练。当客户端数据为独立同分布(Independently Identically Distribution,IID)数据时,联邦学习能够达到近似于集中式机器学习的精确度。然而在现实场景下,由于客户端设备、地理位置等差异,往往存在客户端数据含有噪声数据以及非独立同分布(Non-IID)的情况。因此,提出了一种基于CutMix的联邦学习框架,即剪切增强联邦学习(CutMix Enhanced Federated Learning,CEFL)。首先通过数据清洗算法过滤掉噪声数据,再通过基于CutMix的数据增强方式进行训练,可以有效提高联邦学习模型在真实场景下的学习精度。在MNIST和CIFAR-10标准数据集上进行了实验,相比传统的联邦学习算法,剪切增强联邦学习在Non-IID数据下对模型的准确率分别提升了23%和19%。
-
关键词
联邦学习
非独立同分布数据
数据清洗
数据增强
显著性检测
-
Keywords
Federated learning
Non-independent identically distributed data
Data cleaning
Data augmentation
Saliency detection
-
分类号
TP183
[自动化与计算机技术—控制理论与控制工程]
-