期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于自编码神经网络的半监督联邦学习模型 被引量:2
1
作者 侯坤池 王楠 +3 位作者 张可佳 宋蕾 袁琪 苗凤娟 《计算机应用研究》 CSCD 北大核心 2022年第4期1071-1074,1104,共5页
联邦学习是一种新型的分布式机器学习方法,可以使得各客户端在不分享隐私数据的前提下共同建立共享模型。然而现有的联邦学习框架仅适用于监督学习,即默认所有客户端数据均带有标签。由于现实中标记数据难以获取,联邦学习模型训练的前... 联邦学习是一种新型的分布式机器学习方法,可以使得各客户端在不分享隐私数据的前提下共同建立共享模型。然而现有的联邦学习框架仅适用于监督学习,即默认所有客户端数据均带有标签。由于现实中标记数据难以获取,联邦学习模型训练的前提假设通常很难成立。为解决此问题,对原有联邦学习进行扩展,提出了一种基于自编码神经网络的半监督联邦学习模型ANN-SSFL,该模型允许无标记的客户端参与联邦学习。无标记数据利用自编码神经网络学习得到可被分类的潜在特征,从而在联邦学习中提供无标记数据的特征信息来作出自身贡献。在MNIST数据集上进行实验,实验结果表明,提出的ANN-SSFL模型实际可行,在监督客户端数量不变的情况下,增加无监督客户端可以提高原有联邦学习精度。 展开更多
关键词 联邦学习 半监督学习 隐私保护 自编码神经网络
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部