期刊文献+
共找到6篇文章
< 1 >
每页显示 20 50 100
移动边缘计算中计算卸载方案研究综述 被引量:48
1
作者 张依琳 梁玉珠 +3 位作者 尹沐君 全韩彧 王田 贾维嘉 《计算机学报》 EI CAS CSCD 北大核心 2021年第12期2406-2430,共25页
在移动边缘计算中通过将终端设备的计算任务卸载到边缘服务器,可以利用边缘服务器资源解决终端设备计算能力不足的问题,同时满足移动应用程序对低延迟的需求.因此,计算卸载备受关注并成为移动边缘计算的关键技术之一.本文对移动边缘计... 在移动边缘计算中通过将终端设备的计算任务卸载到边缘服务器,可以利用边缘服务器资源解决终端设备计算能力不足的问题,同时满足移动应用程序对低延迟的需求.因此,计算卸载备受关注并成为移动边缘计算的关键技术之一.本文对移动边缘计算的计算卸载研究进展进行深度调研.首先,总结归纳出两类计算卸载方法--基于启发式算法的传统方法和基于在线学习的智能方法;从最小化延迟时间、最小化能耗、权衡时间和能耗三个不同优化目标对基于启发式算法的传统计算卸载进行分析对比;梳理了基于在线学习智能计算卸载采用的底层人工智能技术;然后介绍了边缘服务器资源分配方案和新兴的移动边缘计算应用场景;最后分析计算卸载方案存在的问题并展望移动边缘计算的计算卸载研究的未来方向,为后续研究工作指明方向. 展开更多
关键词 移动边缘计算 计算卸载 智能计算卸载 边缘服务器 资源分配
在线阅读 下载PDF
面向非独立同分布数据的联邦学习研究进展 被引量:6
2
作者 郭桂娟 田晖 +3 位作者 皮慧娟 贾维嘉 彭绍亮 王田 《小型微型计算机系统》 CSCD 北大核心 2023年第11期2442-2449,共8页
在联邦学习中,因数据只需要在终端设备上进行训练而不需要上传到服务器端,从而有效的保证了数据的隐私性和安全性.目前关于联邦学习各方面的研究虽然取得了很大的进展,但是联邦学习中的非独立同分布数据问题仍然是一个难以攻克的难题.... 在联邦学习中,因数据只需要在终端设备上进行训练而不需要上传到服务器端,从而有效的保证了数据的隐私性和安全性.目前关于联邦学习各方面的研究虽然取得了很大的进展,但是联邦学习中的非独立同分布数据问题仍然是一个难以攻克的难题.本文对联邦学习中非独立同分布数据方面的研究进行了大量的调研,发现现有的研究主要涉及以下几个方面:性能优化、算法优化、模型优化、通信成本、隐私保护和个性化联邦学习等.为了归纳整理联邦学习中关于非独立同分布数据的相关研究,本文从以上各个方面详细介绍了现阶段联邦学习中有关非独立同分布数据的研究方案;最后分析了联邦学习中非独立同分布数据未来的研究方向,为今后联邦学习的研究指明方向. 展开更多
关键词 联邦学习 非独立同分布数据 研究方案 研究进展
在线阅读 下载PDF
联邦学习在边缘计算场景中应用研究进展 被引量:15
3
作者 张依琳 陈宇翔 +1 位作者 田晖 王田 《小型微型计算机系统》 CSCD 北大核心 2021年第12期2645-2653,共9页
随着物联网设备迅猛激增,其收集的数据上传至云计算中心会造成网络延迟、计算资源浪费等问题.为了解决上述问题,边缘计算作为新的计算范式应运而生,但也面临用户隐私、数据安全等诸多挑战.联邦学习作为时下热点人工智能技术,可以解决隐... 随着物联网设备迅猛激增,其收集的数据上传至云计算中心会造成网络延迟、计算资源浪费等问题.为了解决上述问题,边缘计算作为新的计算范式应运而生,但也面临用户隐私、数据安全等诸多挑战.联邦学习作为时下热点人工智能技术,可以解决隐私数据以及"数据孤岛"问题,将联邦学习应用在边缘计算领域能够有效地处理隐私数据等难题.通过大量调研,本文介绍了边缘计算场景中的联邦学习技术和训练模型,对比分析了联邦学习在边缘聚合、边缘缓存和计算卸载中的应用方案,指明现有方案存在的问题并提出解决思路,探讨了联邦学习在边缘计算中应用的未来研究方向和挑战. 展开更多
关键词 联邦学习 边缘计算 边缘缓存 计算卸载 物联网
在线阅读 下载PDF
移动边缘网络中联邦学习效率优化综述 被引量:12
4
作者 孙兵 刘艳 +3 位作者 王田 彭绍亮 王国军 贾维嘉 《计算机研究与发展》 EI CSCD 北大核心 2022年第7期1439-1469,共31页
联邦学习(federated learning)将模型训练任务部署在移动边缘设备,参与者只需将训练后的本地模型发送到服务器参与全局聚合而无须发送原始数据,提高了数据隐私性.然而,解决效率问题是联邦学习落地的关键.影响效率的主要因素包括设备与... 联邦学习(federated learning)将模型训练任务部署在移动边缘设备,参与者只需将训练后的本地模型发送到服务器参与全局聚合而无须发送原始数据,提高了数据隐私性.然而,解决效率问题是联邦学习落地的关键.影响效率的主要因素包括设备与服务器之间的通信消耗、模型收敛速率以及移动边缘网络中存在的安全与隐私风险.在充分调研后,首先将联邦学习的效率优化归纳为通信、训练与安全隐私保护3类.具体来说,从边缘协调与模型压缩的角度讨论分析了通信优化方案;从设备选择、资源协调、聚合控制与数据优化4个方面讨论分析了训练优化方案;从安全与隐私的角度讨论分析了联邦学习的保护机制.其次,通过对比相关技术的创新点与贡献,总结了现有方案的优点与不足,探讨了联邦学习所面临的新挑战.最后,基于边缘计算的思想提出了边缘化的联邦学习解决方案,在数据优化、自适应学习、激励机制和隐私保护等方面给出了创新理念与未来展望. 展开更多
关键词 联邦学习 深度学习 效率 边缘计算 移动边缘网络
在线阅读 下载PDF
基于边缘的联邦学习模型清洗和设备聚类方法 被引量:17
5
作者 刘艳 王田 +2 位作者 彭绍亮 王国军 贾维嘉 《计算机学报》 EI CAS CSCD 北大核心 2021年第12期2515-2528,共14页
参与联邦学习的终端设备只需在各自的本地数据集上训练本地模型,并在服务器的协同下共同训练一个全局预测模型.因此,联邦学习可以在不共享终端设备的隐私和敏感数据的情况下实现机器学习的目的.然而,大量终端设备对服务器的高并发访问... 参与联邦学习的终端设备只需在各自的本地数据集上训练本地模型,并在服务器的协同下共同训练一个全局预测模型.因此,联邦学习可以在不共享终端设备的隐私和敏感数据的情况下实现机器学习的目的.然而,大量终端设备对服务器的高并发访问会增加模型更新的传输延迟,并且本地模型可能是与全局模型收敛方向相反的恶意模型,因此联邦学习过程中会产生大量额外的通信成本.现有工作主要集中在减少通信轮数或清除本地脏数据,本文研究了一种基于边缘的模型清洗和设备聚类方法,以减少本地更新总数.具体来说,通过计算本地更新参数和全局模型参数在多维上的余弦相似度来判断本地更新是否是必要的,从而避免不必要的通信.同时,终端设备根据其所在的网络位置聚类,并通过移动边缘节点以簇的形式与云端通信,从而避免与服务器高并发访问相关的延迟.本文以Softmax回归和卷积神经网络实现MNIST手写数字识别为例验证了所提方法在提高通信效率上的有效性.实验结果表明,相比传统的联邦学习,本文提出的基于边缘的模型清洗和设备聚类方法减少了60%的本地更新数,模型的收敛速度提高了10.3%. 展开更多
关键词 联邦学习 移动边缘计算 模型清洗 聚类 余弦相似度
在线阅读 下载PDF
一种基于背景优化的高效联邦学习方案
6
作者 郭桂娟 田晖 +1 位作者 王田 贾维嘉 《计算机科学》 CSCD 北大核心 2022年第12期40-45,共6页
联邦学习因其在客户端本地进行数据的训练,从而有效保证了数据的隐私性和安全性。对于联邦学习的研究虽然取得了很大的进展,但是,由于非独立同分布数据的存在以及数据量不平衡、数据类型不平衡等问题,客户端在利用本地数据进行训练时不... 联邦学习因其在客户端本地进行数据的训练,从而有效保证了数据的隐私性和安全性。对于联邦学习的研究虽然取得了很大的进展,但是,由于非独立同分布数据的存在以及数据量不平衡、数据类型不平衡等问题,客户端在利用本地数据进行训练时不可避免地存在精确度缺失、训练效率低下等问题。为了应对联邦学习背景环境的不同导致的联邦学习效率降低的问题,文中提出了一种基于背景优化的高效联邦学习方案,用于提高终端设备中本地模型的精确度,从而减小通信开销、提高整体模型的训练效率。具体来说,在不同的环境中根据精确度的差异性来选择第一设备和第二设备,将第一设备模型和全局模型的不相关性(下文统称为差异值)作为标准差异值;而第二设备是否上传本地模型则由第二设备和第一设备之间的差异值决定。实验结果表明,与传统的联邦学习相比,所提方案在普通联邦学习场景下的表现明显优于联邦平均算法,在MINIST数据集上,其精确度提高了约7.5%;在CIFAR-10数据集上,其精确度提高了约10%。 展开更多
关键词 联邦学习 背景优化 设备分类 不相关性 差异值
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部