-
题名移动边缘计算中计算卸载方案研究综述
被引量:48
- 1
-
-
作者
张依琳
梁玉珠
尹沐君
全韩彧
王田
贾维嘉
-
机构
北京师范大学人工智能与未来网络研究院
北京师范大学-香港浸会大学联合国际学院广东省人工智能与多模态数据处理重点实验室
华侨大学计算机科学与技术学院
-
出处
《计算机学报》
EI
CAS
CSCD
北大核心
2021年第12期2406-2430,共25页
-
基金
国家自然科学基金重点项目(61532013)
国家自然科学基金项目(62172046)
+5 种基金
福建省自然科学基金杰出青年项目(2020J06023)
福建省自然科学基金项目(2020J05059)
UIC科研启动经费(R72021202)
华侨大学科研基金项目(605-50Y19028)
广东省教育厅普通高校重点领域专项项目(2021ZDZX1063)
珠海市产学院合作项目(ZI122017001210133PWC)资助。
-
文摘
在移动边缘计算中通过将终端设备的计算任务卸载到边缘服务器,可以利用边缘服务器资源解决终端设备计算能力不足的问题,同时满足移动应用程序对低延迟的需求.因此,计算卸载备受关注并成为移动边缘计算的关键技术之一.本文对移动边缘计算的计算卸载研究进展进行深度调研.首先,总结归纳出两类计算卸载方法--基于启发式算法的传统方法和基于在线学习的智能方法;从最小化延迟时间、最小化能耗、权衡时间和能耗三个不同优化目标对基于启发式算法的传统计算卸载进行分析对比;梳理了基于在线学习智能计算卸载采用的底层人工智能技术;然后介绍了边缘服务器资源分配方案和新兴的移动边缘计算应用场景;最后分析计算卸载方案存在的问题并展望移动边缘计算的计算卸载研究的未来方向,为后续研究工作指明方向.
-
关键词
移动边缘计算
计算卸载
智能计算卸载
边缘服务器
资源分配
-
Keywords
mobile edge computing
computation offloading
intelligence computation offloading
edge server
resource allocation
-
分类号
TP301
[自动化与计算机技术—计算机系统结构]
-
-
题名面向非独立同分布数据的联邦学习研究进展
被引量:6
- 2
-
-
作者
郭桂娟
田晖
皮慧娟
贾维嘉
彭绍亮
王田
-
机构
华侨大学计算机科学与技术学院
北京师范大学人工智能与未来网络研究院
北京师范大学-香港浸会大学联合国际学院人工智能与多模态数据处理广东省重点实验室
湖南大学信息科学与工程学院
湖南大学国家超级计算长沙中心
-
出处
《小型微型计算机系统》
CSCD
北大核心
2023年第11期2442-2449,共8页
-
基金
国家自然科学基金项目(62172046)资助
广东省教育厅重点专项项目(2021ZDZX1063)资助
+2 种基金
广东省教育厅人工智能与多模态重点实验室项目(2020KSYS007)资助
珠海市产学研项目(ZH22017001210133PWC)资助
UIC科研启动经费项目(R72021202)资助。
-
文摘
在联邦学习中,因数据只需要在终端设备上进行训练而不需要上传到服务器端,从而有效的保证了数据的隐私性和安全性.目前关于联邦学习各方面的研究虽然取得了很大的进展,但是联邦学习中的非独立同分布数据问题仍然是一个难以攻克的难题.本文对联邦学习中非独立同分布数据方面的研究进行了大量的调研,发现现有的研究主要涉及以下几个方面:性能优化、算法优化、模型优化、通信成本、隐私保护和个性化联邦学习等.为了归纳整理联邦学习中关于非独立同分布数据的相关研究,本文从以上各个方面详细介绍了现阶段联邦学习中有关非独立同分布数据的研究方案;最后分析了联邦学习中非独立同分布数据未来的研究方向,为今后联邦学习的研究指明方向.
-
关键词
联邦学习
非独立同分布数据
研究方案
研究进展
-
Keywords
federated learning
non-independent identically distributed data
research approach
research progress
-
分类号
TP393
[自动化与计算机技术—计算机应用技术]
-
-
题名联邦学习在边缘计算场景中应用研究进展
被引量:15
- 3
-
-
作者
张依琳
陈宇翔
田晖
王田
-
机构
华侨大学计算机科学与技术学院
华侨大学厦门市数据安全与区块链技术重点实验室
北京师范大学人工智能与未来网络研究院
北京师范大学-香港浸会大学联合国际学院人工智能与多模态数据处理广东省重点实验室
-
出处
《小型微型计算机系统》
CSCD
北大核心
2021年第12期2645-2653,共9页
-
基金
福建省自然科学基金项目(2020J06023)资助
国家自然科学基金项目(62172046)资助
广东省教育厅普通高校重点领域专项项目(2021ZDZX1063)资助。
-
文摘
随着物联网设备迅猛激增,其收集的数据上传至云计算中心会造成网络延迟、计算资源浪费等问题.为了解决上述问题,边缘计算作为新的计算范式应运而生,但也面临用户隐私、数据安全等诸多挑战.联邦学习作为时下热点人工智能技术,可以解决隐私数据以及"数据孤岛"问题,将联邦学习应用在边缘计算领域能够有效地处理隐私数据等难题.通过大量调研,本文介绍了边缘计算场景中的联邦学习技术和训练模型,对比分析了联邦学习在边缘聚合、边缘缓存和计算卸载中的应用方案,指明现有方案存在的问题并提出解决思路,探讨了联邦学习在边缘计算中应用的未来研究方向和挑战.
-
关键词
联邦学习
边缘计算
边缘缓存
计算卸载
物联网
-
Keywords
federated learning
edge computing
edge cache
computation offloading
internet of things
-
分类号
TP393
[自动化与计算机技术—计算机应用技术]
-
-
题名移动边缘网络中联邦学习效率优化综述
被引量:12
- 4
-
-
作者
孙兵
刘艳
王田
彭绍亮
王国军
贾维嘉
-
机构
华侨大学计算机科学与技术学院
北京师范大学人工智能与未来网络研究院
北京师范大学香港浸会大学联合国际学院人工智能与多模态数据处理重点实验室
湖南大学信息科学与工程学院
广州大学计算机科学与网络工程学院
-
出处
《计算机研究与发展》
EI
CSCD
北大核心
2022年第7期1439-1469,共31页
-
基金
国家重点研发计划项目(2022YFE0201400)
国家自然科学基金项目(62172046)
+4 种基金
福建省自然科学基金项目(2020J06023)
广东省教育厅普通高校重点专项(2021ZDZX1063)
广东省教育厅人工智能与多模态数据处理重点实验室项目(2020KSYS007)
珠海市产学研项目(ZH22017001210133PWC)
UIC科研启动经费(R72021202)。
-
文摘
联邦学习(federated learning)将模型训练任务部署在移动边缘设备,参与者只需将训练后的本地模型发送到服务器参与全局聚合而无须发送原始数据,提高了数据隐私性.然而,解决效率问题是联邦学习落地的关键.影响效率的主要因素包括设备与服务器之间的通信消耗、模型收敛速率以及移动边缘网络中存在的安全与隐私风险.在充分调研后,首先将联邦学习的效率优化归纳为通信、训练与安全隐私保护3类.具体来说,从边缘协调与模型压缩的角度讨论分析了通信优化方案;从设备选择、资源协调、聚合控制与数据优化4个方面讨论分析了训练优化方案;从安全与隐私的角度讨论分析了联邦学习的保护机制.其次,通过对比相关技术的创新点与贡献,总结了现有方案的优点与不足,探讨了联邦学习所面临的新挑战.最后,基于边缘计算的思想提出了边缘化的联邦学习解决方案,在数据优化、自适应学习、激励机制和隐私保护等方面给出了创新理念与未来展望.
-
关键词
联邦学习
深度学习
效率
边缘计算
移动边缘网络
-
Keywords
federated learning
deep learning
efficiency
edge computing
mobile edge networks
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-
-
题名基于边缘的联邦学习模型清洗和设备聚类方法
被引量:17
- 5
-
-
作者
刘艳
王田
彭绍亮
王国军
贾维嘉
-
机构
北京师范大学人工智能与未来网络研究院
北京师范大学-香港浸会大学联合国际学院广东省人工智能与多模态数据处理重点实验室
华侨大学计算机科学与技术学院
湖南大学信息科学与工程学院
国家超级计算长沙中心
广州大学计算机科学与网络工程学院
-
出处
《计算机学报》
EI
CAS
CSCD
北大核心
2021年第12期2515-2528,共14页
-
基金
国家自然科学基金(62172046)
福建省自然科学基金(2020J06023)
+2 种基金
UIC科研启动项目(R72021202)
广东省教育厅普通高校重点领域专项项目(2021ZDZX1063)
珠海市产学院合作项目(ZII22017001210133PWC)资助。
-
文摘
参与联邦学习的终端设备只需在各自的本地数据集上训练本地模型,并在服务器的协同下共同训练一个全局预测模型.因此,联邦学习可以在不共享终端设备的隐私和敏感数据的情况下实现机器学习的目的.然而,大量终端设备对服务器的高并发访问会增加模型更新的传输延迟,并且本地模型可能是与全局模型收敛方向相反的恶意模型,因此联邦学习过程中会产生大量额外的通信成本.现有工作主要集中在减少通信轮数或清除本地脏数据,本文研究了一种基于边缘的模型清洗和设备聚类方法,以减少本地更新总数.具体来说,通过计算本地更新参数和全局模型参数在多维上的余弦相似度来判断本地更新是否是必要的,从而避免不必要的通信.同时,终端设备根据其所在的网络位置聚类,并通过移动边缘节点以簇的形式与云端通信,从而避免与服务器高并发访问相关的延迟.本文以Softmax回归和卷积神经网络实现MNIST手写数字识别为例验证了所提方法在提高通信效率上的有效性.实验结果表明,相比传统的联邦学习,本文提出的基于边缘的模型清洗和设备聚类方法减少了60%的本地更新数,模型的收敛速度提高了10.3%.
-
关键词
联邦学习
移动边缘计算
模型清洗
聚类
余弦相似度
-
Keywords
federated learning
mobile edge computing
model cleaning
clustering
cosine similarity
-
分类号
TP18
[自动化与计算机技术—控制理论与控制工程]
-
-
题名一种基于背景优化的高效联邦学习方案
- 6
-
-
作者
郭桂娟
田晖
王田
贾维嘉
-
机构
华侨大学计算机科学与技术学院
北京师范大学人工智能与未来网络研究院
北京师范大学-香港浸会大学联合国际学院人工智能与多模态数据处理广东省重点实验室
-
出处
《计算机科学》
CSCD
北大核心
2022年第12期40-45,共6页
-
基金
国家科技重点研发计划(2022YFE0201400)
国家自然科学基金(62172046)
+4 种基金
福建省自然科学基金杰出青年项目(2020J06023)
广东省教育厅重点专项(2021ZDZX1063)
珠海市产学研项目(ZH22017001210133PWC)
广东省教育厅人工智能与多模态重点实验室项目(2020KSYS007)
UIC科研启动经费(R72021202)。
-
文摘
联邦学习因其在客户端本地进行数据的训练,从而有效保证了数据的隐私性和安全性。对于联邦学习的研究虽然取得了很大的进展,但是,由于非独立同分布数据的存在以及数据量不平衡、数据类型不平衡等问题,客户端在利用本地数据进行训练时不可避免地存在精确度缺失、训练效率低下等问题。为了应对联邦学习背景环境的不同导致的联邦学习效率降低的问题,文中提出了一种基于背景优化的高效联邦学习方案,用于提高终端设备中本地模型的精确度,从而减小通信开销、提高整体模型的训练效率。具体来说,在不同的环境中根据精确度的差异性来选择第一设备和第二设备,将第一设备模型和全局模型的不相关性(下文统称为差异值)作为标准差异值;而第二设备是否上传本地模型则由第二设备和第一设备之间的差异值决定。实验结果表明,与传统的联邦学习相比,所提方案在普通联邦学习场景下的表现明显优于联邦平均算法,在MINIST数据集上,其精确度提高了约7.5%;在CIFAR-10数据集上,其精确度提高了约10%。
-
关键词
联邦学习
背景优化
设备分类
不相关性
差异值
-
Keywords
Federated learning
Background optimization
Equipment classification
Irrelevance
Difference value
-
分类号
TP393.0
[自动化与计算机技术—计算机应用技术]
-