期刊文献+
共找到13篇文章
< 1 >
每页显示 20 50 100
面向非独立同分布数据的迭代式联邦学习 被引量:1
1
作者 陈洪洋 李晓会 王天阳 《计算机工程与设计》 北大核心 2025年第4期1064-1071,共8页
针对现有的面向非独立同分布(non-IID)数据的联邦学习优化算法存在训练的模型缺失个性化、模型在测试集上精度较低的问题,提出一种迭代凝聚式簇估计联邦学习算法FL-ICE(iterative cluster estimation federated)。各个客户端联合训练单... 针对现有的面向非独立同分布(non-IID)数据的联邦学习优化算法存在训练的模型缺失个性化、模型在测试集上精度较低的问题,提出一种迭代凝聚式簇估计联邦学习算法FL-ICE(iterative cluster estimation federated)。各个客户端联合训练单个全局共享模型,迭代地依据客户端更新的相似度执行簇估计并通过梯度下降优化簇估计参数,对全局模型进行个性化处理。实验结果表明,该算法可以有效提升模型在测试集上的准确性,使得更大比例的客户端达到目标精度。 展开更多
关键词 联邦学习 分布式机器学习 个性化模型 迭代式训练 簇估计算法 非独立同分布数据 隐私保护
在线阅读 下载PDF
面向非独立同分布数据的车联网多阶段联邦学习机制 被引量:3
2
作者 唐晓岚 梁煜婷 陈文龙 《计算机研究与发展》 EI CSCD 北大核心 2024年第9期2170-2184,共15页
车联网在智慧城市建设中扮演着不可或缺的角色,汽车不仅仅是交通工具,更是大数据时代信息采集和传输的重要载体.随着车辆采集的数据量飞速增长和人们隐私保护意识的增强,如何在车联网环境中确保用户数据安全,防止数据泄露,成为亟待解决... 车联网在智慧城市建设中扮演着不可或缺的角色,汽车不仅仅是交通工具,更是大数据时代信息采集和传输的重要载体.随着车辆采集的数据量飞速增长和人们隐私保护意识的增强,如何在车联网环境中确保用户数据安全,防止数据泄露,成为亟待解决的难题.联邦学习采用“数据不动模型动”的方式,为保护用户隐私和实现良好性能提供了可行方案.然而,受限于采集设备、地域环境、个人习惯的差异,多台车辆采集的数据通常表现为非独立同分布(non-independent and identically distributed,non-IID)数据,而传统的联邦学习算法在non-IID数据环境中,其模型收敛速度较慢.针对这一挑战,提出了一种面向non-IID数据的车联网多阶段联邦学习机制,称为FedWO.第1阶段采用联邦平均算法,使得全局模型快速达到一个基本的模型准确度;第2阶段采用联邦加权多方计算,依据各车辆的数据特性计算其在全局模型中的权重,聚合后得到性能更优的全局模型,同时采用传输控制策略,减少模型传输带来的通信开销;第3阶段为个性化计算阶段,车辆利用各自的数据进行个性化学习,微调本地模型获得与本地数据更匹配的模型.实验采用了驾驶行为数据集进行实验评估,结果表明相较于传统方法,在non-IID数据场景下,FedWO机制保护了数据隐私,同时提高了算法的准确度. 展开更多
关键词 车联网 联邦学习 非独立同分布数据 隐私保护 传输控制
在线阅读 下载PDF
面向非独立同分布数据的联邦学习研究进展 被引量:6
3
作者 郭桂娟 田晖 +3 位作者 皮慧娟 贾维嘉 彭绍亮 王田 《小型微型计算机系统》 CSCD 北大核心 2023年第11期2442-2449,共8页
在联邦学习中,因数据只需要在终端设备上进行训练而不需要上传到服务器端,从而有效的保证了数据的隐私性和安全性.目前关于联邦学习各方面的研究虽然取得了很大的进展,但是联邦学习中的非独立同分布数据问题仍然是一个难以攻克的难题.... 在联邦学习中,因数据只需要在终端设备上进行训练而不需要上传到服务器端,从而有效的保证了数据的隐私性和安全性.目前关于联邦学习各方面的研究虽然取得了很大的进展,但是联邦学习中的非独立同分布数据问题仍然是一个难以攻克的难题.本文对联邦学习中非独立同分布数据方面的研究进行了大量的调研,发现现有的研究主要涉及以下几个方面:性能优化、算法优化、模型优化、通信成本、隐私保护和个性化联邦学习等.为了归纳整理联邦学习中关于非独立同分布数据的相关研究,本文从以上各个方面详细介绍了现阶段联邦学习中有关非独立同分布数据的研究方案;最后分析了联邦学习中非独立同分布数据未来的研究方向,为今后联邦学习的研究指明方向. 展开更多
关键词 联邦学习 非独立同分布数据 研究方案 研究进展
在线阅读 下载PDF
非独立同分布下联邦半监督学习的数据分享研究 被引量:1
4
作者 顾永跟 高凌轩 +1 位作者 吴小红 陶杰 《计算机工程》 CAS CSCD 北大核心 2024年第6期188-196,共9页
联邦学习作为一种保护本地数据隐私安全的分布式机器学习方法,联合分散的设备共同训练共享模型。通常联邦学习在数据均有标签情况下进行训练,然而现实中无法保证标签数据完全存在,提出联邦半监督学习。在联邦半监督学习中,如何利用无标... 联邦学习作为一种保护本地数据隐私安全的分布式机器学习方法,联合分散的设备共同训练共享模型。通常联邦学习在数据均有标签情况下进行训练,然而现实中无法保证标签数据完全存在,提出联邦半监督学习。在联邦半监督学习中,如何利用无标签数据提升系统性能和如何缓解数据异质性带来的负面影响是两大挑战。针对标签数据仅在服务器场景,基于分享的思想,设计一种可应用在联邦半监督学习系统上的方法Share&Mark,该方法将客户端的分享数据由专家标记后参与联邦训练。同时,为充分利用分享的数据,根据各客户端模型在服务器数据集上的损失值动态调整各客户端模型在联邦聚合时的占比,即ServerLoss聚合算法。综合考虑隐私牺牲、通信开销以及人工标注成本3个方面的因素,对不同分享率下的实验结果进行分析,结果表明,约3%的数据分享比例能平衡各方面因素。此时,采用Share&Mark方法的联邦半监督学习系统FedMatch在CIFAR-10和Fashion-MNIST数据集上训练的模型准确率均可提升8%以上,并具有较优的鲁棒性。 展开更多
关键词 联邦半监督学习 联邦学习 数据独立同分布 鲁棒性 聚合算法 数据分享
在线阅读 下载PDF
非独立同分布工业大数据下联邦动态加权学习方法 被引量:4
5
作者 刘晶 朱家豪 +1 位作者 袁闰萌 季海鹏 《计算机集成制造系统》 EI CSCD 北大核心 2023年第5期1602-1614,共13页
联邦学习在不交换本地数据的情况下可以完成多方协作训练,很好地解决了工业物联网领域数据隐私保护及共享问题。但是传统的联邦学习在面对非独立同分布的工业数据时,会因为局部模型更新导致模型的偏移。针对上述问题,提出非独立同分布... 联邦学习在不交换本地数据的情况下可以完成多方协作训练,很好地解决了工业物联网领域数据隐私保护及共享问题。但是传统的联邦学习在面对非独立同分布的工业数据时,会因为局部模型更新导致模型的偏移。针对上述问题,提出非独立同分布工业大数据下联邦动态加权学习方法,该方法分为局部更新和全局聚合两个阶段。在局部更新阶段,利用联邦距离算法消除偏移程度过大的局部模型的影响;在全局聚合阶段,提出动态加权算法,动态的给对全局模型更有利的局部数据分配更大的训练权重。该方法既考虑了局部更新导致的模型偏移程度问题,又兼顾了偏移局部模型对全局模型的影响。通过实验验证了该方法在面对非独立同分布的工业数据时具有良好的效果。 展开更多
关键词 工业物联网 隐私保护 联邦学习 非独立同分布数据
在线阅读 下载PDF
车联网环境下面向异构数据的隐私保护联邦学习
6
作者 张宇 咸鹤群 《密码学报(中英文)》 北大核心 2025年第3期545-564,共20页
随着车联网和智能制造领域相关技术的快速发展,车联网与人工智能的结合成为现代智慧交通发展的新方向.本文提出了一个车联网环境下信息共享的隐私保护联邦学习框架.该框架旨在解决车联网环境中客户端训练条件不一致、客户端数据漂移和... 随着车联网和智能制造领域相关技术的快速发展,车联网与人工智能的结合成为现代智慧交通发展的新方向.本文提出了一个车联网环境下信息共享的隐私保护联邦学习框架.该框架旨在解决车联网环境中客户端训练条件不一致、客户端数据漂移和模型数据隐私泄露的问题.智能车辆的移动和分布式特性使得联邦学习面临着不同的挑战.在此框架中,引入性能增强的异构数据联邦学习算法.通过重写算法的训练优化步骤,并提出联邦学习广义更新规则,使得参数聚合过程可以考虑更多的因素.这本质上是一种归一化的平均方法,同时可以保证异构场景下更快的误差收敛.为了防止诚实且好奇的服务器和外部敌手从传输的参数中推断出隐私信息,现有方案使用差分隐私机制将噪声添加到本地参数以进行保护.然而,噪声会破坏学习过程并降低训练模型的效果.为此,本文提出了一种性能增强的差分隐私算法.该算法通过在本地优化目标函数中加入相应正则项,提高了训练模型对注入噪声的鲁棒性,降低了车联网设备在训练时受到的噪声影响,并给出了总的隐私预算统计.在合成数据集和真实世界的异构数据集上对框架的性能进行了评估.结果表明,框架表现优于现有的异构数据优化算法,且在相同的隐私保护水平下表现优于现有的基于差分隐私的联邦学习算法,更适用于车联网环境. 展开更多
关键词 车联网 联邦学习 非独立同分布数据 差分隐私 效用隐私平衡
在线阅读 下载PDF
基于联邦学习的无线任务:数据非IID一定影响性能? 被引量:1
7
作者 董少鹏 杨晨阳 刘婷婷 《信号处理》 CSCD 北大核心 2021年第8期1365-1377,共13页
作为一种分布式训练框架,联邦学习在无线通信领域有着广阔的应用前景,也面临着多方面的技术挑战,其中之一源于参与训练用户数据集的非独立同分布(Independent and identically distributed,IID)。不少文献提出了解决方法,以减轻户数据集... 作为一种分布式训练框架,联邦学习在无线通信领域有着广阔的应用前景,也面临着多方面的技术挑战,其中之一源于参与训练用户数据集的非独立同分布(Independent and identically distributed,IID)。不少文献提出了解决方法,以减轻户数据集非IID造成的联邦学习性能损失。本文以平均信道增益预测、正交幅度调制信号的解调这两个无线任务以及两个图像分类任务为例,分析用户数据集非IID对联邦学习性能的影响,通过神经网络损失函数的可视化和对模型参数的偏移量进行分析,尝试解释非IID数据集对不同任务影响程度不同的原因。分析结果表明,用户数据集非IID未必导致联邦学习性能的下降。在不同数据集上通过联邦平均算法训练得到的模型参数偏移程度和损失函数形状有很大的差异,二者共同导致了不同任务受数据非IID影响程度的不同;在同一个回归问题中,数据集非IID是否影响联邦学习的性能与引起数据非IID的具体因素有关。 展开更多
关键词 联邦学习 数据独立同分布 平均信道增益 解调 损失函数可视化
在线阅读 下载PDF
基于EMD最优匹配的分层联邦学习算法
8
作者 吴小红 李佩 +1 位作者 顾永跟 陶杰 《计算机工程》 北大核心 2025年第2期170-178,共9页
联邦学习允许多个客户端在不共享私有数据的情况下协同训练高性能的全局模型。在跨组织场景的水平联邦学习环境下,客户端本地数据分布中的统计异质性将降低全局模型的性能。为提升联邦学习的全局模型性能,同时避免牺牲客户端隐私和增加... 联邦学习允许多个客户端在不共享私有数据的情况下协同训练高性能的全局模型。在跨组织场景的水平联邦学习环境下,客户端本地数据分布中的统计异质性将降低全局模型的性能。为提升联邦学习的全局模型性能,同时避免牺牲客户端隐私和增加计算成本,提出一种新的混合联邦学习算法FedAvg-Match,其基本思路是通过改进联邦学习算法提升客户端的模型质量。该算法面向以不平衡标签分布为特征的数据异构性,在分层联邦学习框架下设计客户端分组聚合算法来减轻客户端数据异构性对模型性能的影响。针对客户端优化分组问题,设计一种基于动态规划的客户端匹配算法DP-ClientMatch,根据客户端的数据分布距离EMD得到最优的客户端分组匹配。在MNIST、Fashion-MNIST和CIFAR-103个数据集上的实验结果表明,与其他联邦学习算法相比,在高度统计异质性的联邦学习场景下,FedAvg-Match算法使全局模型测试精度最少可提高10百分点,可以显著提高联邦学习全局模型在图像分类任务上的性能。 展开更多
关键词 联邦学习 非独立同分布数据 最优匹配 EMD最优匹配 模型质量
在线阅读 下载PDF
基于本地漂移和多样性算力的联邦学习优化算法
9
作者 张一鸣 曹腾飞 《计算机应用》 北大核心 2025年第5期1447-1454,共8页
针对联邦学习(FL)在边缘计算应用中所面临的非独立同分布(non-IID)数据和异构算力挑战,为了避免non-IID数据导致客户端模型更新出现较大偏差,从而引发模型不稳定的收敛,引入本地漂移变量的概念;并通过校正本地模型参数,将本地训练过程... 针对联邦学习(FL)在边缘计算应用中所面临的非独立同分布(non-IID)数据和异构算力挑战,为了避免non-IID数据导致客户端模型更新出现较大偏差,从而引发模型不稳定的收敛,引入本地漂移变量的概念;并通过校正本地模型参数,将本地训练过程与全局聚合过程分离,优化FL在non-IID数据训练过程中的性能。此外,鉴于边缘服务器算力的多样性,提出一种新的策略:从全局模型中划分出一个简化的神经网络子模型下发给算力受限的边缘服务器进行训练,而高算力的边缘服务器则使用整个全局模型进行训练;低算力边缘服务器训练所得的参数将上传至云服务器,通过冻结部分参数提高整个模型的拟合速度。结合以上2种方法,提出一种基于本地漂移和多样性算力的联邦学习优化算法(FedLD),旨在解决联邦学习在边缘计算应用中所面临的non-IID数据和多样性算力带来的异构挑战。实验结果表明,FedLD比FedAvg、SCAFFOLD和FedProx算法收敛更快、准确率更高,相较于FedProx,在50个客户端参与训练时,FedLD在MNIST、CIFAR-10和CIFAR-100数据集上分别将模型准确率提升了0.39%、3.68%和15.24%;与最新的FedProc算法相比,FedLD通信开销更低;在K最近邻(KNN)算法、长短期记忆(LSTM)模型和双向门控循环单元(GRU)模型上的对比实验结果也表明,结合FedLD后,这3种模型的预测精度均有约1%的提升。 展开更多
关键词 联邦学习 边缘计算 异构性 非独立同分布数据 客户端漂移 多样性算力
在线阅读 下载PDF
基于联邦学习的含不平衡样本数据电力变压器故障诊断 被引量:24
10
作者 郭方洪 刘师硕 +3 位作者 吴祥 陈博 张文安 葛其运 《电力系统自动化》 EI CSCD 北大核心 2023年第10期145-152,共8页
基于海量样本数据的深度神经网络可以显著提升电力变压器的故障诊断效果,但实际环境中各变压器本地数据被“数据孤岛”隔离,难以进行集中式深度训练。联邦学习可以实现多源数据的共同建模,但各变压器的非独立同分布不平衡数据会使算法... 基于海量样本数据的深度神经网络可以显著提升电力变压器的故障诊断效果,但实际环境中各变压器本地数据被“数据孤岛”隔离,难以进行集中式深度训练。联邦学习可以实现多源数据的共同建模,但各变压器的非独立同分布不平衡数据会使算法性能严重下降。针对上述问题,提出一种基于联邦学习的含不平衡样本数据电力变压器故障诊断机制。与传统深度学习集中训练方式不同,文中采用多个参与者分布训练方式。每个参与者采用LeNet-5深度神经网络进行本地训练,中央服务器将本地模型进行聚合,同时引入改进的数据共享策略对云端共享数据进行选择性下发,以降低非独立同分布数据的不平衡性。实验结果证明,该机制实现了各变压器独立且不平衡数据的协同训练,对变压器故障类型的诊断精度可达到97%。 展开更多
关键词 电力变压器 故障诊断 LeNet-5网络 联邦学习 非独立同分布数据
在线阅读 下载PDF
联合双维度用户调度的自适应联邦边缘学习
11
作者 张九川 潘春雨 +2 位作者 周天依 李学华 丁勇 《计算机工程与应用》 CSCD 北大核心 2024年第4期153-162,共10页
联邦边缘学习无需传输本地数据,在保护用户隐私的基础上,大大降低了上行链路压力。联邦边缘学习通过智能边缘设备,利用本地数据集训练局部模型后上传模型参数至中心服务器;中心服务器聚合本地上传的局部模型参数形成全局模型后进行更新... 联邦边缘学习无需传输本地数据,在保护用户隐私的基础上,大大降低了上行链路压力。联邦边缘学习通过智能边缘设备,利用本地数据集训练局部模型后上传模型参数至中心服务器;中心服务器聚合本地上传的局部模型参数形成全局模型后进行更新,然后将更新后的模型下发给智能边缘设备开始新一轮迭代。但是局部模型精度以及局部模型训练时间,对全局模型聚合以及模型更新过程会产生重大影响。因此提出自适应动态批量梯度下降策略,在局部模型训练过程中自动调整梯度下降抽取的批量大小,优化联邦学习的局部模型精度及收敛速度。针对用户数据的非独立同分布特性,设计一种联合双维度用户调度策略的自适应动态批量梯度下降算法,通过收敛时间和数据多样性进行双维度约束。经MNIST数据集、fashion MNIST数据集和CIFAR-10数据集的训练测试,算法在有效降低聚合等待时间的同时能够进一步提高全局模型精度和收敛速度。与固定批量为64、128、256的梯度下降算法相比,该算法的全局模型精度在运行100 s时提升分别为32.4%、45.2%、87.5%。 展开更多
关键词 联邦边缘学习 批量梯度下降 用户调度 非独立同分布数据
在线阅读 下载PDF
异构边缘计算环境下异步联邦学习的节点分组与分时调度策略 被引量:4
12
作者 马千飘 贾庆民 +3 位作者 刘建春 徐宏力 谢人超 黄韬 《通信学报》 EI CSCD 北大核心 2023年第11期79-93,共15页
为了克服异构边缘计算环境下联邦学习的3个关键挑战,边缘异构性、非独立同分布数据及通信资源约束,提出了一种分组异步联邦学习(FedGA)机制,将边缘节点分为多个组,各个分组间通过异步方式与全局模型聚合进行全局更新,每个分组内部节点... 为了克服异构边缘计算环境下联邦学习的3个关键挑战,边缘异构性、非独立同分布数据及通信资源约束,提出了一种分组异步联邦学习(FedGA)机制,将边缘节点分为多个组,各个分组间通过异步方式与全局模型聚合进行全局更新,每个分组内部节点通过分时方式与参数服务器通信。理论分析建立了FedGA的收敛界与分组间数据分布之间的定量关系。针对分组内节点的通信提出了分时调度策略魔镜法(MMM)优化模型单轮更新的完成时间。基于FedGA的理论分析和MMM,设计了一种有效的分组算法来最小化整体训练的完成时间。实验结果表明,FedGA和MMM相对于现有最先进的方法能降低30.1%~87.4%的模型训练时间。 展开更多
关键词 边缘计算 联邦学习 非独立同分布数据 异构性 收敛分析
在线阅读 下载PDF
一种基于CutMix的增强联邦学习框架
13
作者 王春东 杜英琦 +1 位作者 莫秀良 付浩然 《计算机科学》 CSCD 北大核心 2023年第S02期913-920,共8页
联邦学习(Federated Learning)的出现解决了传统机器学习中存在的“数据孤岛”问题,能够在保护客户端本地数据隐私的前提下进行集体模型的训练。当客户端数据为独立同分布(Independently Identically Distribution,IID)数据时,联邦学习... 联邦学习(Federated Learning)的出现解决了传统机器学习中存在的“数据孤岛”问题,能够在保护客户端本地数据隐私的前提下进行集体模型的训练。当客户端数据为独立同分布(Independently Identically Distribution,IID)数据时,联邦学习能够达到近似于集中式机器学习的精确度。然而在现实场景下,由于客户端设备、地理位置等差异,往往存在客户端数据含有噪声数据以及非独立同分布(Non-IID)的情况。因此,提出了一种基于CutMix的联邦学习框架,即剪切增强联邦学习(CutMix Enhanced Federated Learning,CEFL)。首先通过数据清洗算法过滤掉噪声数据,再通过基于CutMix的数据增强方式进行训练,可以有效提高联邦学习模型在真实场景下的学习精度。在MNIST和CIFAR-10标准数据集上进行了实验,相比传统的联邦学习算法,剪切增强联邦学习在Non-IID数据下对模型的准确率分别提升了23%和19%。 展开更多
关键词 联邦学习 非独立同分布数据 数据清洗 数据增强 显著性检测
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部