-
题名基于自编码神经网络的半监督联邦学习模型
被引量:2
- 1
-
-
作者
侯坤池
王楠
张可佳
宋蕾
袁琪
苗凤娟
-
机构
黑龙江大学数学科学学院
哈尔滨工程大学计算机科学与技术学院
齐齐哈尔大学通信与电子工程学院
-
出处
《计算机应用研究》
CSCD
北大核心
2022年第4期1071-1074,1104,共5页
-
基金
国家自然科学基金资助项目(61872204,61802118)
黑龙江省自然基金资助项目(JQ2019F003)
黑龙江省省属本科高校基本科研业务费科研项目(135309453)。
-
文摘
联邦学习是一种新型的分布式机器学习方法,可以使得各客户端在不分享隐私数据的前提下共同建立共享模型。然而现有的联邦学习框架仅适用于监督学习,即默认所有客户端数据均带有标签。由于现实中标记数据难以获取,联邦学习模型训练的前提假设通常很难成立。为解决此问题,对原有联邦学习进行扩展,提出了一种基于自编码神经网络的半监督联邦学习模型ANN-SSFL,该模型允许无标记的客户端参与联邦学习。无标记数据利用自编码神经网络学习得到可被分类的潜在特征,从而在联邦学习中提供无标记数据的特征信息来作出自身贡献。在MNIST数据集上进行实验,实验结果表明,提出的ANN-SSFL模型实际可行,在监督客户端数量不变的情况下,增加无监督客户端可以提高原有联邦学习精度。
-
关键词
联邦学习
半监督学习
隐私保护
自编码神经网络
-
Keywords
federated learning(FL)
semi-supervised learning
privacy preserving
AutoEncoder neural network
-
分类号
TP309
[自动化与计算机技术—计算机系统结构]
-