期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
异构边缘环境下自适应分层联邦学习协同优化方法
1
作者 冯奕铭 钱珍 +1 位作者 李光辉 代成龙 《计算机研究与发展》 北大核心 2025年第6期1416-1433,共18页
传统联邦学习在应用中面临设备异构、数据异构、通信资源约束等挑战.终端设备异构导致训练过程中过低的协作效率,而数据异构所包括的数据量和数据特征分布异构则导致全局模型精度损失以及模型缺少泛化性.为了有效利用终端的计算、通信... 传统联邦学习在应用中面临设备异构、数据异构、通信资源约束等挑战.终端设备异构导致训练过程中过低的协作效率,而数据异构所包括的数据量和数据特征分布异构则导致全局模型精度损失以及模型缺少泛化性.为了有效利用终端的计算、通信以及数据资源,提出了一种自适应优化的分层联邦学习方法.该方法在考虑设备硬件资源约束、通信资源约束以及数据非独立同分布(Non-IID)特性下,结合模型分割和客户端选择技术加速联邦学习训练,提高模型准确率以及其在不同异构环境下的适应性.为了反映各客户端数据对全局模型的一致性影响,引入数据贡献度以度量本地模型对全局模型的影响.通过深度强化学习方法,在每一轮训练前智能体根据系统的资源分布以及本地数据贡献度来学习如何选择合理的训练客户端集合及相应边端协同模型划分方案,以加速本地训练及全局模型收敛.仿真结果表明,与基线方法相比,所提算法在模型准确率与训练效率2个方面均表现出显著优势,且在不同异构环境配置下显示出良好的鲁棒性及适应性. 展开更多
关键词 分层联邦学习 异构边缘计算 模型分割 客户端选择 深度强化学习
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部