期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
联邦学习统计异质性综述
1
作者 俞浩 范菁 +2 位作者 孙伊航 董华 郗恩康 《计算机应用》 北大核心 2025年第9期2737-2746,共10页
联邦学习是一种强调隐私保护的分布式机器学习框架。然而,它在应对统计异质性问题时面临显著挑战。统计异质性源于参与节点间的数据分布差异,可能导致模型更新偏差、全局模型性能下降以及收敛不稳定等问题。针对上述问题,首先,详细分析... 联邦学习是一种强调隐私保护的分布式机器学习框架。然而,它在应对统计异质性问题时面临显著挑战。统计异质性源于参与节点间的数据分布差异,可能导致模型更新偏差、全局模型性能下降以及收敛不稳定等问题。针对上述问题,首先,详细分析统计异质性带来的主要问题,包括特征分布不一致、标签分布不均衡、数据量不对称以及数据质量参差不齐等;其次,对现有的联邦学习统计异质性解决方案进行系统综述,包括局部校正、聚类方法、客户端选择优化、聚合策略调整、数据共享、知识蒸馏以及解耦优化等,并逐一评估它们的优缺点与适用场景;最后,探讨了未来的相关研究方向,如设备计算能力感知、模型异构适应、隐私安全机制的优化以及跨任务迁移能力的提升,为应对实际应用中的统计异质性提供参考。 展开更多
关键词 联邦学习 统计异质性 客户端漂移 分布式学习 非独立同分布
在线阅读 下载PDF
元分析中统计异质性的检验:一项Monte Carlo研究 被引量:7
2
作者 陈维 韦嘉 +1 位作者 赵守盈 张进辅 《西南大学学报(自然科学版)》 CAS CSCD 北大核心 2016年第2期120-125,共6页
元分析中,异质性检验常为模型的选择和调节分析提供重要的参考依据.有多种方法和途径对异质性进行评价,包括Q,H,I2和似然比检验.通过模拟研究比较,发现单一的Q统计量可能导致错误的模型选择,H和I2值没有因为估计方法(矩估计和似然估计)... 元分析中,异质性检验常为模型的选择和调节分析提供重要的参考依据.有多种方法和途径对异质性进行评价,包括Q,H,I2和似然比检验.通过模拟研究比较,发现单一的Q统计量可能导致错误的模型选择,H和I2值没有因为估计方法(矩估计和似然估计)的不同而对异质性的检验结果存有较大差异,是一个有效可靠的辅助统计量;Q统计量与似然比检验相比,在I类错误率上控制较严格,但统计功效不如似然比检验.研究结果表明,可以选用Q统计量结合报告H或I2值的方式作为异质性检验的最佳方案. 展开更多
关键词 元分析 统计异质性 似然比 蒙特卡罗
在线阅读 下载PDF
联邦长尾学习研究综述
3
作者 周弈志 王军晓 +4 位作者 谢鑫 王鹏飞 贾西贝 齐恒 秦宇辰 《计算机学报》 北大核心 2025年第4期779-807,共29页
联邦学习是一种基于分布式训练的机器学习技术,有效地解决了因联合建模而引发的用户间数据隐私泄露问题,因此在多个领域得到了广泛应用。然而,在实际的联邦学习应用中,统计异质性与长尾分布的共存成为一大挑战,严重影响了模型性能。因此... 联邦学习是一种基于分布式训练的机器学习技术,有效地解决了因联合建模而引发的用户间数据隐私泄露问题,因此在多个领域得到了广泛应用。然而,在实际的联邦学习应用中,统计异质性与长尾分布的共存成为一大挑战,严重影响了模型性能。因此,如何在保护数据隐私的前提下解决长尾问题,已成为当前的研究热点。本文综述了联邦长尾学习的研究成果,首先简要阐述了联邦学习的架构,并介绍了统计异质性、长尾学习及联邦长尾学习的核心概念与定义。接着,依据优化方法的差异,将联邦长尾学习的算法分为两大类:模型组件改进和基于算法的优化,并深入分析了每种算法的实现细节及其优缺点。同时,为了更好地为不同任务提供参考,本文整合了一些具有代表性的开源数据集、长尾划分策略、评价指标与对比实验。最后,针对未来的应用场景和研究方向,对联邦长尾学习进行了展望。期望通过本文的深入研究,能为这类问题提供更全面的解决方案,进一步推动联邦长尾学习技术在各个领域的广泛应用和发展。 展开更多
关键词 联邦学习 长尾学习 联邦长尾学习 统计异质性 隐私保护 边缘智能
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部