系统异构性和统计异构性的存在使得通信开销和通信效率成为联邦学习的关键瓶颈之一,在众多参与方中只选取一部分客户端执行模型更新和聚合可以有效降低通信开销,但是选择偏差和客户端上的数据质量分布不平衡对客户端采样方法提出了额外...系统异构性和统计异构性的存在使得通信开销和通信效率成为联邦学习的关键瓶颈之一,在众多参与方中只选取一部分客户端执行模型更新和聚合可以有效降低通信开销,但是选择偏差和客户端上的数据质量分布不平衡对客户端采样方法提出了额外的挑战。为此,提出数据质量评估的高效强化联邦学习节点动态采样优化方法(client dynamic sampling optimization of efficient reinforcement federated learning based on data quality assessment,RQCS),该方法采用沙普利值的贡献指数评估客户端上的数据质量,基于深度强化学习模型,智能的动态选择具有高数据质量且能提高最终模型精度的客户端参与每一轮的联邦学习,以抵消数据质量分布不平衡引入的偏差,加速模型收敛并提高模型精度。在MNIST及CIFAR-10数据集上的实验表明,所提出算法与其他算法相比,在减少通信开销的同时进一步加快了收敛速度,同时在模型最终准确性上也有较好的性能。展开更多
在车联网中,为了充分利用可用资源,车到车(Vehicle to Vehicle,V2V)链路需要动态地复用固定分配给车到基础设施(Vehicle to Infrastructure,V2I)链路的信道。传统的集中式信道资源分配方法会产生较大的通信开销,也难以适应转瞬即逝的车...在车联网中,为了充分利用可用资源,车到车(Vehicle to Vehicle,V2V)链路需要动态地复用固定分配给车到基础设施(Vehicle to Infrastructure,V2I)链路的信道。传统的集中式信道资源分配方法会产生较大的通信开销,也难以适应转瞬即逝的车辆环境。为此,提出了一种基于分布式联邦深度强化学习(Federated Deep Reinforcement Learning,FDRL)的信道资源分配方法。首先,所有V2V智能体基于局部观察的环境信息独立地训练自己的模型,但彼此间保持相同的奖励以激励它们相互协作进而达成全局最优方案;然后,这些V2V智能体通过基站的帮助聚合部分模型参数,以增加接入公平性并加快模型学习效率。通过上述两阶段的迭代训练,每个V2V智能体训练出独特的决斗深度神经网络信道接入决策模型。仿真结果表明,所提出的FDRL方法与现有的优化方法相比具有更高的V2I链路总容量和V2V链路传输成功率。展开更多
文摘系统异构性和统计异构性的存在使得通信开销和通信效率成为联邦学习的关键瓶颈之一,在众多参与方中只选取一部分客户端执行模型更新和聚合可以有效降低通信开销,但是选择偏差和客户端上的数据质量分布不平衡对客户端采样方法提出了额外的挑战。为此,提出数据质量评估的高效强化联邦学习节点动态采样优化方法(client dynamic sampling optimization of efficient reinforcement federated learning based on data quality assessment,RQCS),该方法采用沙普利值的贡献指数评估客户端上的数据质量,基于深度强化学习模型,智能的动态选择具有高数据质量且能提高最终模型精度的客户端参与每一轮的联邦学习,以抵消数据质量分布不平衡引入的偏差,加速模型收敛并提高模型精度。在MNIST及CIFAR-10数据集上的实验表明,所提出算法与其他算法相比,在减少通信开销的同时进一步加快了收敛速度,同时在模型最终准确性上也有较好的性能。
文摘在车联网中,为了充分利用可用资源,车到车(Vehicle to Vehicle,V2V)链路需要动态地复用固定分配给车到基础设施(Vehicle to Infrastructure,V2I)链路的信道。传统的集中式信道资源分配方法会产生较大的通信开销,也难以适应转瞬即逝的车辆环境。为此,提出了一种基于分布式联邦深度强化学习(Federated Deep Reinforcement Learning,FDRL)的信道资源分配方法。首先,所有V2V智能体基于局部观察的环境信息独立地训练自己的模型,但彼此间保持相同的奖励以激励它们相互协作进而达成全局最优方案;然后,这些V2V智能体通过基站的帮助聚合部分模型参数,以增加接入公平性并加快模型学习效率。通过上述两阶段的迭代训练,每个V2V智能体训练出独特的决斗深度神经网络信道接入决策模型。仿真结果表明,所提出的FDRL方法与现有的优化方法相比具有更高的V2I链路总容量和V2V链路传输成功率。