期刊文献+
共找到30篇文章
< 1 2 >
每页显示 20 50 100
面向Non-IID数据的拜占庭鲁棒联邦学习 被引量:7
1
作者 马鑫迪 李清华 +4 位作者 姜奇 马卓 高胜 田有亮 马建峰 《通信学报》 EI CSCD 北大核心 2023年第6期138-153,共16页
面向数据分布特征为非独立同分布的联邦学习拜占庭节点恶意攻击问题进行研究,提出了一种隐私保护的鲁棒梯度聚合算法。该算法设计参考梯度用于识别模型训练中“质量较差”的共享梯度,并通过信誉度评估来降低数据分布异质对拜占庭节点识... 面向数据分布特征为非独立同分布的联邦学习拜占庭节点恶意攻击问题进行研究,提出了一种隐私保护的鲁棒梯度聚合算法。该算法设计参考梯度用于识别模型训练中“质量较差”的共享梯度,并通过信誉度评估来降低数据分布异质对拜占庭节点识别的影响。同时,结合同态加密和随机噪声混淆技术来保护模型训练和拜占庭节点识别过程中的用户隐私。最后,在真实数据集中进行仿真测试,测试结果表明所提算法能够在保护用户隐私的条件下,准确、高效地识别拜占庭攻击节点,具有较好的收敛性和鲁棒性。 展开更多
关键词 联邦学习 拜占庭攻击 非独立同分布 隐私保护 同态加密
在线阅读 下载PDF
面向Non-IID数据的联邦学习工业仪表定位与分类算法
2
作者 王瑞龙 闫坤 +1 位作者 宁振杰 肖霄 《仪表技术与传感器》 2025年第11期19-24,共6页
针对现有联邦学习算法在各客户端仅有单个类别的Non-IID仪表数据集上训练出的定位与分类模型性能不佳的问题,提出了一种改进的FedProx算法。在客户端本地训练时,使用预训练模型参数与客户端本地训练过程中的模型参数差值的L2范数作为正... 针对现有联邦学习算法在各客户端仅有单个类别的Non-IID仪表数据集上训练出的定位与分类模型性能不佳的问题,提出了一种改进的FedProx算法。在客户端本地训练时,使用预训练模型参数与客户端本地训练过程中的模型参数差值的L2范数作为正则化损失项添加到原始的损失函数中;在服务器端,使用训练出的模型在测试集上的精度作为各客户端参全局模型聚合的权重。实验结果表明:改进的FedProx算法训练出的模型的mAP0.5指标达到0.9720,仅比集中式训练出的模型的0.9994低了0.0274;该算法在各客户端仅有单个类别的Non-IID数据集上训练出的模型的mAP0.5指标为0.9392,比FedAvg和FedProx算法分别高出了0.0785和0.1289。实验结果充分证明了改进的FedProx算法的准确性和有效性。 展开更多
关键词 联邦学习 工业仪表 定位与分类 non-iid数据 FedAvg FedProx
在线阅读 下载PDF
解决联邦学习Non-IID问题的基础模型方法综述
3
作者 王鑫 陈坤 孙凌云 《计算机科学》 2025年第12期302-313,共12页
联邦学习因具有隐私保护的天然特性,已经逐渐成为一个被广泛认可的分布式机器学习框架。但由于参与方数据分布的差异性,特别是呈现非独立同分布(Non-Independent and Identically Distributed,Non-IID)时,其面临着泛化性能不足、收敛性... 联邦学习因具有隐私保护的天然特性,已经逐渐成为一个被广泛认可的分布式机器学习框架。但由于参与方数据分布的差异性,特别是呈现非独立同分布(Non-Independent and Identically Distributed,Non-IID)时,其面临着泛化性能不足、收敛性能下降、数据倾斜等严峻挑战。用预训练基础模型缓解Non-IID问题作为一种新颖的方法,演变出了各种各样的解决方案。对此,从预训练基础模型的角度,对现有工作进行了综述。首先介绍了基础模型方法,对典型的基础模型编码结构进行对比分析。其次从修改输入、基础模型部分结构再训练,以及参数高效微调3个角度,提出了一种新的分类方法。最后探讨了该类工作的核心难题和未来研究方向。 展开更多
关键词 联邦学习 分布式系统 隐私计算 非独立同分布数据问题 基础模型
在线阅读 下载PDF
基于EMD最优匹配的分层联邦学习算法
4
作者 吴小红 李佩 +1 位作者 顾永跟 陶杰 《计算机工程》 北大核心 2025年第2期170-178,共9页
联邦学习允许多个客户端在不共享私有数据的情况下协同训练高性能的全局模型。在跨组织场景的水平联邦学习环境下,客户端本地数据分布中的统计异质性将降低全局模型的性能。为提升联邦学习的全局模型性能,同时避免牺牲客户端隐私和增加... 联邦学习允许多个客户端在不共享私有数据的情况下协同训练高性能的全局模型。在跨组织场景的水平联邦学习环境下,客户端本地数据分布中的统计异质性将降低全局模型的性能。为提升联邦学习的全局模型性能,同时避免牺牲客户端隐私和增加计算成本,提出一种新的混合联邦学习算法FedAvg-Match,其基本思路是通过改进联邦学习算法提升客户端的模型质量。该算法面向以不平衡标签分布为特征的数据异构性,在分层联邦学习框架下设计客户端分组聚合算法来减轻客户端数据异构性对模型性能的影响。针对客户端优化分组问题,设计一种基于动态规划的客户端匹配算法DP-ClientMatch,根据客户端的数据分布距离EMD得到最优的客户端分组匹配。在MNIST、Fashion-MNIST和CIFAR-103个数据集上的实验结果表明,与其他联邦学习算法相比,在高度统计异质性的联邦学习场景下,FedAvg-Match算法使全局模型测试精度最少可提高10百分点,可以显著提高联邦学习全局模型在图像分类任务上的性能。 展开更多
关键词 联邦学习 非独立同分布数据 最优匹配 EMD最优匹配 模型质量
在线阅读 下载PDF
异构联邦学习在无人系统中的研究综述 被引量:1
5
作者 俞浩 范菁 孙伊航 《计算机应用研究》 北大核心 2025年第3期641-649,共9页
异构联邦学习(heterogeneous federated learning,HFL)是一种用于解决数据和设备异构性问题的分布式机器学习方法,广泛应用于包括无人系统在内的多种场景。随着无人系统(如无人机、自动驾驶车辆)的快速发展,如何有效应对非独立同分布(no... 异构联邦学习(heterogeneous federated learning,HFL)是一种用于解决数据和设备异构性问题的分布式机器学习方法,广泛应用于包括无人系统在内的多种场景。随着无人系统(如无人机、自动驾驶车辆)的快速发展,如何有效应对非独立同分布(non-IID)数据及设备计算能力差异,已成为提升联邦学习效率和性能的重要挑战。综述了异构联邦学习在无人系统中的最新研究进展,重点分析了数据、设备及模型异构性带来的主要问题,并总结了现有的解决方案,如分层联邦学习、模型压缩与剪枝技术在此领域的应用。还讨论了这些技术的实际应用场景,评估了它们的优缺点,并提出了未来可能的研究方向,以进一步提升无人系统中的联邦学习性能和数据隐私保护水平。 展开更多
关键词 联邦学习 异构性 无人系统 非独立同分布 数据隐私
在线阅读 下载PDF
面向开放世界的联邦学习综述:挑战、技术与应用
6
作者 陆浩天 董育宁 卢官明 《南京邮电大学学报(自然科学版)》 北大核心 2025年第3期99-108,共10页
随着数据隐私保护意识的日益提升和实际应用环境的动态变迁,联邦学习作为一种隐私保护型的机器学习技术备受瞩目。然而,现实世界的应用场景往往是开放且动态的,使得开放世界下的联邦学习成为当前研究的热点之一。全面梳理了当前开放环... 随着数据隐私保护意识的日益提升和实际应用环境的动态变迁,联邦学习作为一种隐私保护型的机器学习技术备受瞩目。然而,现实世界的应用场景往往是开放且动态的,使得开放世界下的联邦学习成为当前研究的热点之一。全面梳理了当前开放环境下联邦学习所面临的问题,对现有方法进行了系统的分类综述,并探讨了其在网络流分类领域的潜在应用。首先,针对非独立同分布数据问题,不仅回顾了传统场景下的解决方案,还引入了动态联邦学习场景;其次,鉴于数据标签稀缺的问题,归纳了联邦半监督学习的相关算法;最后,探讨了联邦环境下的未知类处理方法,并展望了未来的研究方向和网络流分类中的应用前景。 展开更多
关键词 联邦学习 非独立同分布 联邦半监督学习 联邦开放集识别
在线阅读 下载PDF
联邦学习统计异质性综述
7
作者 俞浩 范菁 +2 位作者 孙伊航 董华 郗恩康 《计算机应用》 北大核心 2025年第9期2737-2746,共10页
联邦学习是一种强调隐私保护的分布式机器学习框架。然而,它在应对统计异质性问题时面临显著挑战。统计异质性源于参与节点间的数据分布差异,可能导致模型更新偏差、全局模型性能下降以及收敛不稳定等问题。针对上述问题,首先,详细分析... 联邦学习是一种强调隐私保护的分布式机器学习框架。然而,它在应对统计异质性问题时面临显著挑战。统计异质性源于参与节点间的数据分布差异,可能导致模型更新偏差、全局模型性能下降以及收敛不稳定等问题。针对上述问题,首先,详细分析统计异质性带来的主要问题,包括特征分布不一致、标签分布不均衡、数据量不对称以及数据质量参差不齐等;其次,对现有的联邦学习统计异质性解决方案进行系统综述,包括局部校正、聚类方法、客户端选择优化、聚合策略调整、数据共享、知识蒸馏以及解耦优化等,并逐一评估它们的优缺点与适用场景;最后,探讨了未来的相关研究方向,如设备计算能力感知、模型异构适应、隐私安全机制的优化以及跨任务迁移能力的提升,为应对实际应用中的统计异质性提供参考。 展开更多
关键词 联邦学习 统计异质性 客户端漂移 分布式学习 非独立同分布
在线阅读 下载PDF
FedRCD:一种基于分布提取与社区检测的聚类联邦学习算法
8
作者 王瑞聪 边耐政 吴英俊 《计算机科学》 北大核心 2025年第3期188-196,共9页
将客户端聚类并在簇内进行联邦学习是缓解传统联邦学习算法在非独立同分布(Non-IID)数据场景下表现不佳的一类有效方法。这类方法大多使用客户端本地模型的参数来表征数据特性,并利用参数间的“距离”来评估相似性,从而实现客户端的聚类... 将客户端聚类并在簇内进行联邦学习是缓解传统联邦学习算法在非独立同分布(Non-IID)数据场景下表现不佳的一类有效方法。这类方法大多使用客户端本地模型的参数来表征数据特性,并利用参数间的“距离”来评估相似性,从而实现客户端的聚类,但由于神经网络神经元的置换不变性,聚类效果可能会不准确。此外,这类方法通常需要预设聚类数量,可能产生不合理的聚类,或者需要在算法迭代过程中进行聚类,这将带来过大的通信开销。在深入分析了现有方法的缺点之后,提出了一种新颖的联邦学习算法FedRCD。该算法结合了自编码器和K-Means算法,直接从客户端提取数据集的分布信息来描述其特性,从而降低了对模型参数的依赖;FedRCD还将客户端关系组织成图结构,并通过Louvain算法完成客户端聚类关系的构建,这个过程无需预设聚类数量,因此聚类结果更加合理。实验结果表明,FedRCD能更有效地挖掘客户端间的潜在聚类关系,在多种非独立同分布数据场景下,与其他联邦学习算法相比,显著提升了神经网络的训练效果。在CIFAR10数据集上,FedRCD的准确率比经典的FedAvg算法提高了37.08%,比最新发布的FeSEM算法也提高了1.89%,同时展现出更优秀的公平性表现。 展开更多
关键词 联邦学习 非独立同分布 分布提取 社区检测 Louvain算法
在线阅读 下载PDF
车联网环境下面向异构数据的隐私保护联邦学习
9
作者 张宇 咸鹤群 《密码学报(中英文)》 北大核心 2025年第3期545-564,共20页
随着车联网和智能制造领域相关技术的快速发展,车联网与人工智能的结合成为现代智慧交通发展的新方向.本文提出了一个车联网环境下信息共享的隐私保护联邦学习框架.该框架旨在解决车联网环境中客户端训练条件不一致、客户端数据漂移和... 随着车联网和智能制造领域相关技术的快速发展,车联网与人工智能的结合成为现代智慧交通发展的新方向.本文提出了一个车联网环境下信息共享的隐私保护联邦学习框架.该框架旨在解决车联网环境中客户端训练条件不一致、客户端数据漂移和模型数据隐私泄露的问题.智能车辆的移动和分布式特性使得联邦学习面临着不同的挑战.在此框架中,引入性能增强的异构数据联邦学习算法.通过重写算法的训练优化步骤,并提出联邦学习广义更新规则,使得参数聚合过程可以考虑更多的因素.这本质上是一种归一化的平均方法,同时可以保证异构场景下更快的误差收敛.为了防止诚实且好奇的服务器和外部敌手从传输的参数中推断出隐私信息,现有方案使用差分隐私机制将噪声添加到本地参数以进行保护.然而,噪声会破坏学习过程并降低训练模型的效果.为此,本文提出了一种性能增强的差分隐私算法.该算法通过在本地优化目标函数中加入相应正则项,提高了训练模型对注入噪声的鲁棒性,降低了车联网设备在训练时受到的噪声影响,并给出了总的隐私预算统计.在合成数据集和真实世界的异构数据集上对框架的性能进行了评估.结果表明,框架表现优于现有的异构数据优化算法,且在相同的隐私保护水平下表现优于现有的基于差分隐私的联邦学习算法,更适用于车联网环境. 展开更多
关键词 车联网 联邦学习 非独立同分布数据 差分隐私 效用隐私平衡
在线阅读 下载PDF
基于本地漂移和多样性算力的联邦学习优化算法
10
作者 张一鸣 曹腾飞 《计算机应用》 北大核心 2025年第5期1447-1454,共8页
针对联邦学习(FL)在边缘计算应用中所面临的非独立同分布(non-IID)数据和异构算力挑战,为了避免non-IID数据导致客户端模型更新出现较大偏差,从而引发模型不稳定的收敛,引入本地漂移变量的概念;并通过校正本地模型参数,将本地训练过程... 针对联邦学习(FL)在边缘计算应用中所面临的非独立同分布(non-IID)数据和异构算力挑战,为了避免non-IID数据导致客户端模型更新出现较大偏差,从而引发模型不稳定的收敛,引入本地漂移变量的概念;并通过校正本地模型参数,将本地训练过程与全局聚合过程分离,优化FL在non-IID数据训练过程中的性能。此外,鉴于边缘服务器算力的多样性,提出一种新的策略:从全局模型中划分出一个简化的神经网络子模型下发给算力受限的边缘服务器进行训练,而高算力的边缘服务器则使用整个全局模型进行训练;低算力边缘服务器训练所得的参数将上传至云服务器,通过冻结部分参数提高整个模型的拟合速度。结合以上2种方法,提出一种基于本地漂移和多样性算力的联邦学习优化算法(FedLD),旨在解决联邦学习在边缘计算应用中所面临的non-IID数据和多样性算力带来的异构挑战。实验结果表明,FedLD比FedAvg、SCAFFOLD和FedProx算法收敛更快、准确率更高,相较于FedProx,在50个客户端参与训练时,FedLD在MNIST、CIFAR-10和CIFAR-100数据集上分别将模型准确率提升了0.39%、3.68%和15.24%;与最新的FedProc算法相比,FedLD通信开销更低;在K最近邻(KNN)算法、长短期记忆(LSTM)模型和双向门控循环单元(GRU)模型上的对比实验结果也表明,结合FedLD后,这3种模型的预测精度均有约1%的提升。 展开更多
关键词 联邦学习 边缘计算 异构性 非独立同分布数据 客户端漂移 多样性算力
在线阅读 下载PDF
面向非独立同分布数据的车联网多阶段联邦学习机制 被引量:3
11
作者 唐晓岚 梁煜婷 陈文龙 《计算机研究与发展》 EI CSCD 北大核心 2024年第9期2170-2184,共15页
车联网在智慧城市建设中扮演着不可或缺的角色,汽车不仅仅是交通工具,更是大数据时代信息采集和传输的重要载体.随着车辆采集的数据量飞速增长和人们隐私保护意识的增强,如何在车联网环境中确保用户数据安全,防止数据泄露,成为亟待解决... 车联网在智慧城市建设中扮演着不可或缺的角色,汽车不仅仅是交通工具,更是大数据时代信息采集和传输的重要载体.随着车辆采集的数据量飞速增长和人们隐私保护意识的增强,如何在车联网环境中确保用户数据安全,防止数据泄露,成为亟待解决的难题.联邦学习采用“数据不动模型动”的方式,为保护用户隐私和实现良好性能提供了可行方案.然而,受限于采集设备、地域环境、个人习惯的差异,多台车辆采集的数据通常表现为非独立同分布(non-independent and identically distributed,non-IID)数据,而传统的联邦学习算法在non-IID数据环境中,其模型收敛速度较慢.针对这一挑战,提出了一种面向non-IID数据的车联网多阶段联邦学习机制,称为FedWO.第1阶段采用联邦平均算法,使得全局模型快速达到一个基本的模型准确度;第2阶段采用联邦加权多方计算,依据各车辆的数据特性计算其在全局模型中的权重,聚合后得到性能更优的全局模型,同时采用传输控制策略,减少模型传输带来的通信开销;第3阶段为个性化计算阶段,车辆利用各自的数据进行个性化学习,微调本地模型获得与本地数据更匹配的模型.实验采用了驾驶行为数据集进行实验评估,结果表明相较于传统方法,在non-IID数据场景下,FedWO机制保护了数据隐私,同时提高了算法的准确度. 展开更多
关键词 车联网 联邦学习 非独立同分布数据 隐私保护 传输控制
在线阅读 下载PDF
非独立同分布下联邦半监督学习的数据分享研究 被引量:1
12
作者 顾永跟 高凌轩 +1 位作者 吴小红 陶杰 《计算机工程》 CAS CSCD 北大核心 2024年第6期188-196,共9页
联邦学习作为一种保护本地数据隐私安全的分布式机器学习方法,联合分散的设备共同训练共享模型。通常联邦学习在数据均有标签情况下进行训练,然而现实中无法保证标签数据完全存在,提出联邦半监督学习。在联邦半监督学习中,如何利用无标... 联邦学习作为一种保护本地数据隐私安全的分布式机器学习方法,联合分散的设备共同训练共享模型。通常联邦学习在数据均有标签情况下进行训练,然而现实中无法保证标签数据完全存在,提出联邦半监督学习。在联邦半监督学习中,如何利用无标签数据提升系统性能和如何缓解数据异质性带来的负面影响是两大挑战。针对标签数据仅在服务器场景,基于分享的思想,设计一种可应用在联邦半监督学习系统上的方法Share&Mark,该方法将客户端的分享数据由专家标记后参与联邦训练。同时,为充分利用分享的数据,根据各客户端模型在服务器数据集上的损失值动态调整各客户端模型在联邦聚合时的占比,即ServerLoss聚合算法。综合考虑隐私牺牲、通信开销以及人工标注成本3个方面的因素,对不同分享率下的实验结果进行分析,结果表明,约3%的数据分享比例能平衡各方面因素。此时,采用Share&Mark方法的联邦半监督学习系统FedMatch在CIFAR-10和Fashion-MNIST数据集上训练的模型准确率均可提升8%以上,并具有较优的鲁棒性。 展开更多
关键词 联邦半监督学习 联邦学习 数据非独立同分布 鲁棒性 聚合算法 数据分享
在线阅读 下载PDF
高效联邦学习:范数加权聚合算法 被引量:1
13
作者 陈攀 张恒汝 闵帆 《计算机应用研究》 CSCD 北大核心 2024年第3期694-699,共6页
在联邦学习中,跨客户端的非独立同分布(non-IID)数据导致全局模型收敛较慢,通信成本显著增加。现有方法通过收集客户端的标签分布信息来确定本地模型的聚合权重,以加快收敛速度,但这可能会泄露客户端的隐私。为了在不泄露客户端隐私的... 在联邦学习中,跨客户端的非独立同分布(non-IID)数据导致全局模型收敛较慢,通信成本显著增加。现有方法通过收集客户端的标签分布信息来确定本地模型的聚合权重,以加快收敛速度,但这可能会泄露客户端的隐私。为了在不泄露客户端隐私的前提下解决non-IID数据导致的收敛速度降低的问题,提出FedNA聚合算法。该算法通过两种方法来实现这一目标。第一,FedNA根据本地模型类权重更新的L 1范数来分配聚合权重,以保留本地模型的贡献。第二,FedNA将客户端的缺失类对应的类权重更新置为0,以缓解缺失类对聚合的影响。在两个数据集上模拟了四种不同的数据分布进行实验。结果表明,与FedAvg相比,FedNA算法达到稳定状态所需的迭代次数最多可减少890次,降低44.5%的通信开销。FedNA在保护客户端隐私的同时加速了全局模型的收敛速度,降低了通信成本,可用于需要保护用户隐私且对通信效率敏感的场景。 展开更多
关键词 联邦学习 通信成本 隐私保护 非独立同分布 聚合 权重更新
在线阅读 下载PDF
基于联邦学习的船舶AIS轨迹预测算法 被引量:1
14
作者 郑晨俊 曾艳 +3 位作者 袁俊峰 张纪林 王鑫 韩猛 《计算机工程》 CAS CSCD 北大核心 2024年第2期298-307,共10页
联邦学习是一种可以在弱通信环境下有效解决数据孤岛问题的分布式机器学习方法。针对海上船舶轨迹实时预测问题,提出基于Fedves联邦学习框架与卷积神经网络-门控循环单元(CNN-GRU)模型的船舶轨迹预测算法(E-FVTP)。根据Fedves联邦学习框... 联邦学习是一种可以在弱通信环境下有效解决数据孤岛问题的分布式机器学习方法。针对海上船舶轨迹实时预测问题,提出基于Fedves联邦学习框架与卷积神经网络-门控循环单元(CNN-GRU)模型的船舶轨迹预测算法(E-FVTP)。根据Fedves联邦学习框架,通过规范客户端数据集规模以及客户端正则项,在保持原有客户端数据特征的前提下,减小数据非独立同分布特征对全局模型的影响,加快收敛速度。面向海洋通信资源短缺场景,建立基于船舶自动识别系统(AIS)数据的CNN-GRU船舶轨迹预测模型,解决了船舶终端设备计算能力不足的问题。在MarineCadastre开源和舟山海洋船舶航行AIS数据集上的实验结果表明,E-FVTP在预测误差比集中式训练降低40%的情况下,收敛速度提升67%、通信代价降低76.32%,可实现复杂海洋环境中船舶轨迹的精确预测,保障海上交通安全。 展开更多
关键词 联邦学习 船舶轨迹预测 自动识别系统 深度学习 非独立同分布
在线阅读 下载PDF
面向异构环境的物联网入侵检测方法 被引量:2
15
作者 刘静 慕泽林 赖英旭 《通信学报》 EI CSCD 北大核心 2024年第4期114-127,共14页
为了解决物联网设备在资源受限和数据非独立同分布(Non-IID)时出现的训练效率低、模型性能差的问题,提出了一种个性化剪枝联邦学习框架用于物联网的入侵检测。首先,提出了一种基于通道重要性评分的结构化剪枝策略,该策略通过平衡模型的... 为了解决物联网设备在资源受限和数据非独立同分布(Non-IID)时出现的训练效率低、模型性能差的问题,提出了一种个性化剪枝联邦学习框架用于物联网的入侵检测。首先,提出了一种基于通道重要性评分的结构化剪枝策略,该策略通过平衡模型的准确率与复杂度来生成子模型下发给资源受限客户端。其次,提出了一种异构模型聚合算法,对通道采用相似度加权系数进行加权平均,有效降低了Non-IID数据在模型聚合中的负面影响。最后,网络入侵数据集BoT-IoT上的实验结果表明,相较于现有方法,所提方法能显著降低资源受限客户端的时间开销,处理速度提升20.82%,并且在Non-IID场景下,入侵检测的准确率提高0.86%。 展开更多
关键词 联邦学习 入侵检测 模型剪枝 非独立同分布
在线阅读 下载PDF
去中心化场景下的隐私保护联邦学习优化方法 被引量:2
16
作者 侯泽超 董建刚 《计算机应用研究》 CSCD 北大核心 2024年第8期2419-2426,共8页
联邦学习的提出为跨数据孤岛的共同学习提供了新的解决方案,然而联邦节点的本地数据的非独立同分布(Non-IID)特性及中心化框架在参与方监管、追责能力和隐私保护手段上的缺失限制了其大规模应用。针对上述问题,提出了基于区块链的可信... 联邦学习的提出为跨数据孤岛的共同学习提供了新的解决方案,然而联邦节点的本地数据的非独立同分布(Non-IID)特性及中心化框架在参与方监管、追责能力和隐私保护手段上的缺失限制了其大规模应用。针对上述问题,提出了基于区块链的可信切片聚合策略(BBTSA)和联邦归因(FedAom)算法。FedAom引入归因思想,基于积分梯度法获取归因,从而定位影响模型决策行为的参数,分级考虑参数敏感性,在局部更新过程中保持和强化全局模型所学习到的关键知识,有效利用共享数据,从而缓解Non-IID问题。BBTSA基于区块链构建去中心化的联邦学习环境,允许联邦节点在无须中心化第三方的情况下,通过在参与方间交换噪声而非权重或梯度参数,基于合作树结构实现对参数的切片混淆,以保护节点隐私。在两种数据集上的不同分布条件下的验证结果显示,FedAom在大多数条件下相比基线方法在稳定性和收敛速度上都有显著提升。而BBTSA能够隐藏客户端的隐私参数,在不影响精度的情况下确保了训练过程的全程监控和隐私安全。 展开更多
关键词 联邦学习 区块链 隐私保护 非独立同分布 积分梯度 归因
在线阅读 下载PDF
基于相似度聚类和正则化的个性化联邦学习 被引量:2
17
作者 巫婕 钱雪忠 宋威 《计算机应用》 CSCD 北大核心 2024年第11期3345-3353,共9页
联邦学习(FL)应用场景中,常面临客户端数据异质性和不同任务需求需要提供个性化模型的问题,但现有的部分个性化联邦学习(PFL)算法中存在个性化与全局泛化的权衡问题,并且这些算法大多采用传统FL中根据客户端数据量加权聚合的方法,导致... 联邦学习(FL)应用场景中,常面临客户端数据异质性和不同任务需求需要提供个性化模型的问题,但现有的部分个性化联邦学习(PFL)算法中存在个性化与全局泛化的权衡问题,并且这些算法大多采用传统FL中根据客户端数据量加权聚合的方法,导致数据分布差异大的客户端模型性能变差,缺乏个性化聚合策略。针对上述问题,提出一种基于相似度聚类和正则化的PFL算法pFedSCR。pFedSCR算法在客户端本地更新阶段训练个性化模型和局部模型,其中:个性化模型在交叉熵损失函数中引入L2范数正则化,动态调整参考全局模型的程度,在汲取全局知识的基础上实现个性化;在服务端聚合阶段,根据客户端模型更新的相似度聚类,构建聚合权重矩阵,动态调整聚合权重,为不同客户端聚合个性化模型,让参数聚合策略具有个性化的同时解决数据异构问题。在CIFAR-10、MNIST、Fashion-MNIST 3个数据集上通过狄利克雷(Dirichlet)分布模拟了多种非独立同分布(Non-IID)数据场景,结果表明:pFedSCR算法在各种场景下的准确度和通信效率都优于经典算法FedProx和最新个性化算法FedPCL(Federated Prototype-wise Contrastive Learning)等联邦学习算法,最高可达到99.03%准确度。 展开更多
关键词 联邦学习 非独立同分布 余弦相似度 正则化 个性化联邦学习 隐私安全
在线阅读 下载PDF
基于标签分类的联邦学习客户端选择方法
18
作者 张祖篡 陈学斌 +1 位作者 高瑞 邹元怀 《计算机应用》 CSCD 北大核心 2024年第12期3759-3765,共7页
联邦学习作为一种分布式的机器学习方法,在保护数据隐私的同时可以充分挖掘数据中的价值;然而传统的联邦学习训练方法只是随机选择参与客户端,难以适应非独立同分布(Non-IID)数据集。针对Non-IID数据下联邦学习模型精度低、收敛慢等问题... 联邦学习作为一种分布式的机器学习方法,在保护数据隐私的同时可以充分挖掘数据中的价值;然而传统的联邦学习训练方法只是随机选择参与客户端,难以适应非独立同分布(Non-IID)数据集。针对Non-IID数据下联邦学习模型精度低、收敛慢等问题,提出一种基于标签分类的联邦学习客户端选择方法(FedLCCS)。首先,按照频数统计结果分类排序客户端数据集标签;其次,选择拥有高频数标签的客户端参与训练;最后,通过调节自有参数获取不同精度的模型。在MNIST、Fashion-MNIST和Cifar-10数据集上的实验结果表明,结合FedLCCS后的联邦平均(FedAvg)和联邦近端优化(FedProx)这2种基线方法相较于原始方法在初始数据集标签选择比例下的准确率至少提高了9.13和6.53个百分点,收敛速度至少提升了57.41%和18.52%,运行时间至少降低了7.60%和17.62%。以上验证了FedLCCS可以优化联邦模型的精度、收敛速度和运行效率,且能够训练不同准确率的模型以应对多样化的需求。 展开更多
关键词 联邦学习 非独立同分布 客户端选择 频数统计 分类排序
在线阅读 下载PDF
一种面向智联网的高效联邦学习算法 被引量:3
19
作者 叶进 韦涛 +2 位作者 胡亮青 罗森 李晓欢 《计算机工程》 CAS CSCD 北大核心 2023年第12期243-251,261,共10页
在智联网(AIoT)中引入联邦学习(FL)可以加强数据的隐私保护,然而分布式AIoT设备间的数据通常是非独立同分布的,标准的FL模型训练算法会使模型训练时出现客户机漂移的现象,导致收敛缓慢和不稳定。针对此问题,提出基于全局动量的联邦学习... 在智联网(AIoT)中引入联邦学习(FL)可以加强数据的隐私保护,然而分布式AIoT设备间的数据通常是非独立同分布的,标准的FL模型训练算法会使模型训练时出现客户机漂移的现象,导致收敛缓慢和不稳定。针对此问题,提出基于全局动量的联邦学习算法FedCNM。FedCNM将在AIoT服务器聚合的全局梯度信息发送至AIoT设备,让AIoT设备可以根据全局梯度信息来初始化本地模型,并标准化客户机模型的参数更新,以全局动量的方式平滑客户机模型的更新来缓解客户机漂移问题,加快模型的训练。在CIFAR-10和CIFAR-100数据集上模拟大规模设备、部分参与和不同数据分布场景进行仿真实验,结果表明,较对比方法,FedCNM在各种任务上训练的模型可以提高1.46%~11.12%的测试精度,且完成各种学习任务所需要的通信量最少。在CIFAR-10数据集上对比SGD+M、NAG、Adam和AMSGrad这4个本地优化器对算法的影响,实验结果表明,当本地使用基于动量的优化器SGD+M和NAG时,分别提高了10.53%和10.44%的测试精度。 展开更多
关键词 联邦学习 动量 智联网 非独立同分布 深度学习
在线阅读 下载PDF
异构边缘计算环境下异步联邦学习的节点分组与分时调度策略 被引量:4
20
作者 马千飘 贾庆民 +3 位作者 刘建春 徐宏力 谢人超 黄韬 《通信学报》 EI CSCD 北大核心 2023年第11期79-93,共15页
为了克服异构边缘计算环境下联邦学习的3个关键挑战,边缘异构性、非独立同分布数据及通信资源约束,提出了一种分组异步联邦学习(FedGA)机制,将边缘节点分为多个组,各个分组间通过异步方式与全局模型聚合进行全局更新,每个分组内部节点... 为了克服异构边缘计算环境下联邦学习的3个关键挑战,边缘异构性、非独立同分布数据及通信资源约束,提出了一种分组异步联邦学习(FedGA)机制,将边缘节点分为多个组,各个分组间通过异步方式与全局模型聚合进行全局更新,每个分组内部节点通过分时方式与参数服务器通信。理论分析建立了FedGA的收敛界与分组间数据分布之间的定量关系。针对分组内节点的通信提出了分时调度策略魔镜法(MMM)优化模型单轮更新的完成时间。基于FedGA的理论分析和MMM,设计了一种有效的分组算法来最小化整体训练的完成时间。实验结果表明,FedGA和MMM相对于现有最先进的方法能降低30.1%~87.4%的模型训练时间。 展开更多
关键词 边缘计算 联邦学习 非独立同分布数据 异构性 收敛分析
在线阅读 下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部