期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
基于分布式Q学习的区域交通协调控制的研究 被引量:8
1
作者 张辉 杨玉珍 +1 位作者 李振龙 陈阳舟 《武汉理工大学学报(交通科学与工程版)》 2007年第6期1121-1124,共4页
介绍了强化学习和分布式Q学习的基本思想,并将分布式Q学习应用到区域交通协调控制中,通过对其进行研究和分析,提出一种适合于区域交通协调控制的奖惩函数和权值函数.在微观交通仿真软件Paramics上对控制算法进行仿真实验,实验结果说明... 介绍了强化学习和分布式Q学习的基本思想,并将分布式Q学习应用到区域交通协调控制中,通过对其进行研究和分析,提出一种适合于区域交通协调控制的奖惩函数和权值函数.在微观交通仿真软件Paramics上对控制算法进行仿真实验,实验结果说明基于分布式Q学习的区域交通协调控制算法的效果优于传统的定时控制,从而也验证了奖惩函数以及权值函数的有效性. 展开更多
关键词 分布式q学习 奖惩函数 权值函数 协调控制
在线阅读 下载PDF
机器类通信中集中式与分布式Q学习的资源分配算法研究
2
作者 余云河 孙君 《电信科学》 2021年第11期41-50,共10页
针对海量机器类通信(massive machine type communication,mMTC)场景,以最大化系统吞吐量为目标,且在保证部分机器类通信设备(machine type communication device,MTCD)的服务质量(quality of service,QoS)要求前提下,提出两种基于Q学... 针对海量机器类通信(massive machine type communication,mMTC)场景,以最大化系统吞吐量为目标,且在保证部分机器类通信设备(machine type communication device,MTCD)的服务质量(quality of service,QoS)要求前提下,提出两种基于Q学习的资源分配算法:集中式Q学习算法(team-Q)和分布式Q学习算法(dis-Q)。首先基于余弦相似度(cosine similarity,CS)聚类算法,考虑到MTCD地理位置和多级别QoS要求,构造代表MTCD和数据聚合器(data aggregator,DA)的多维向量,根据向量间CS值完成分组。然后分别利用team-Q学习算法和dis-Q学习算法为MTCD分配资源块(resource block,RB)和功率。吞吐量性能上,team-Q和dis-Q算法相较于动态资源分配算法、贪婪算法分别平均提高了16%、23%;复杂度性能上,dis-Q算法仅为team-Q算法的25%及以下,收敛速度则提高了近40%。 展开更多
关键词 资源分配 集中式q学习 分布式q学习 余弦相似度 多维向量
在线阅读 下载PDF
异构网络中基于强化学习的通信-计算资源联合分配算法
3
作者 李丽妍 李学华 +1 位作者 陈硕 孙立新 《电讯技术》 北大核心 2024年第8期1266-1274,共9页
基于强化学习(Reinforcement Learning,RL),在保证用户服务质量(Quality of Service,QoS)的前提下,研究了人机物混合接入的异构网络中通信-计算资源联合分配算法。建立了一种新型人机物混合接入的异构网络拓扑结构。在最小服务质量需求... 基于强化学习(Reinforcement Learning,RL),在保证用户服务质量(Quality of Service,QoS)的前提下,研究了人机物混合接入的异构网络中通信-计算资源联合分配算法。建立了一种新型人机物混合接入的异构网络拓扑结构。在最小服务质量需求、无人机(Unmanned Aerial Vehicle,UAV)传输功率等限制条件下,将信道分配、功率分配和计算资源联合分配问题建模为最小化系统时延和能耗的多目标优化问题。基于强化学习理论和多智能体马尔可夫决策过程,提出一种分布式Q学习通信-计算资源联合分配(Distributed Q-learning Communication and Computing joint Resources Allocation,DQ-CCRA)算法。该算法与现有算法相比,不仅能够降低人类型设备对物类型设备的干扰,还能有效减小系统时延和能耗,将系统总开销降低7.4%。 展开更多
关键词 异构网络 人机物混合接入 资源分配 分布式q学习 多无人机通信
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部