期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于改进深度Q学习的网络选择算法
被引量:
5
1
作者
马彬
陈海波
张超
《电子与信息学报》
EI
CSCD
北大核心
2022年第1期346-353,共8页
在引入休眠机制的超密集异构无线网络中,针对网络动态性增强,导致切换性能下降的问题,该文提出一种基于改进深度Q学习的网络选择算法。首先,根据网络的动态性分析,构建深度Q学习选网模型;其次,将深度Q学习选网模型中线下训练模块的训练...
在引入休眠机制的超密集异构无线网络中,针对网络动态性增强,导致切换性能下降的问题,该文提出一种基于改进深度Q学习的网络选择算法。首先,根据网络的动态性分析,构建深度Q学习选网模型;其次,将深度Q学习选网模型中线下训练模块的训练样本与权值,通过迁移学习,将其迁移到线上决策模块中;最后,利用迁移的训练样本及权值加速训练神经网络,得到最佳选网策略。实验结果表明,该文算法显著改善了因休眠机制导致的高动态性网络切换性能下降问题,同时降低了传统深度Q学习算法在线上选网过程中的时间复杂度。
展开更多
关键词
超密集异构无线网络
改进深度q学习
网络选择
在线阅读
下载PDF
职称材料
基于改进DQN强化学习算法的弹性光网络资源分配研究
被引量:
3
2
作者
尚晓凯
韩龙龙
翟慧鹏
《光通信技术》
2023年第5期12-15,共4页
针对光网络资源分配中频谱资源利用率不高的问题,提出了一种改进的深度Q网络(DQN)强化学习算法。该算法基于ε-greedy策略,根据动作价值函数和状态价值函数的差异来设定损失函数,并不断调整ε值,以改变代理的探索率。通过这种方式,实现...
针对光网络资源分配中频谱资源利用率不高的问题,提出了一种改进的深度Q网络(DQN)强化学习算法。该算法基于ε-greedy策略,根据动作价值函数和状态价值函数的差异来设定损失函数,并不断调整ε值,以改变代理的探索率。通过这种方式,实现了最优的动作值函数,并较好地解决了路由与频谱分配问题。此外,采用了不同的经验池取样方法,以提高迭代训练的收敛速度。仿真结果表明:改进DQN强化学习算法不仅能够使弹性光网络训练模型快速收敛,当业务量为300 Erlang时,比DQN算法频谱资源利用率提高了10.09%,阻塞率降低了12.41%,平均访问时延减少了1.27 ms。
展开更多
关键词
弹性光网络
改进
深度
q
网络强化
学习
算法
资源分配
在线阅读
下载PDF
职称材料
题名
基于改进深度Q学习的网络选择算法
被引量:
5
1
作者
马彬
陈海波
张超
机构
重庆邮电大学重庆市计算机网络与通信技术重点实验室
重庆邮电大学计算机科学与技术学院
出处
《电子与信息学报》
EI
CSCD
北大核心
2022年第1期346-353,共8页
基金
重庆市教委科学技术研究重大项目(KJZD-M201900602)
重庆市教委科学技术研究重点项目(KJZD-M201800603)
+1 种基金
重庆市基础研究与前沿探索项目(CSTC2018jcyjAX0432)
重庆市研究生科研创新项目(CYS20256)。
文摘
在引入休眠机制的超密集异构无线网络中,针对网络动态性增强,导致切换性能下降的问题,该文提出一种基于改进深度Q学习的网络选择算法。首先,根据网络的动态性分析,构建深度Q学习选网模型;其次,将深度Q学习选网模型中线下训练模块的训练样本与权值,通过迁移学习,将其迁移到线上决策模块中;最后,利用迁移的训练样本及权值加速训练神经网络,得到最佳选网策略。实验结果表明,该文算法显著改善了因休眠机制导致的高动态性网络切换性能下降问题,同时降低了传统深度Q学习算法在线上选网过程中的时间复杂度。
关键词
超密集异构无线网络
改进深度q学习
网络选择
Keywords
Ultra dense heterogeneous wireless network
Improved deep
q
-learning
Network selection
分类号
TN915 [电子电信—通信与信息系统]
在线阅读
下载PDF
职称材料
题名
基于改进DQN强化学习算法的弹性光网络资源分配研究
被引量:
3
2
作者
尚晓凯
韩龙龙
翟慧鹏
机构
国家计算机网络与信息安全管理中心河南分中心
出处
《光通信技术》
2023年第5期12-15,共4页
基金
国家计算机网络与信息安全技术研究专项(242研究计划)(2022Q66)资助
国家自然科学基金项目(批准号:61901159)资助。
文摘
针对光网络资源分配中频谱资源利用率不高的问题,提出了一种改进的深度Q网络(DQN)强化学习算法。该算法基于ε-greedy策略,根据动作价值函数和状态价值函数的差异来设定损失函数,并不断调整ε值,以改变代理的探索率。通过这种方式,实现了最优的动作值函数,并较好地解决了路由与频谱分配问题。此外,采用了不同的经验池取样方法,以提高迭代训练的收敛速度。仿真结果表明:改进DQN强化学习算法不仅能够使弹性光网络训练模型快速收敛,当业务量为300 Erlang时,比DQN算法频谱资源利用率提高了10.09%,阻塞率降低了12.41%,平均访问时延减少了1.27 ms。
关键词
弹性光网络
改进
深度
q
网络强化
学习
算法
资源分配
Keywords
elastic optical network
improved reinforcement learning algorithm for deep
q
network
resource allocation
分类号
TN929.1 [电子电信—通信与信息系统]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于改进深度Q学习的网络选择算法
马彬
陈海波
张超
《电子与信息学报》
EI
CSCD
北大核心
2022
5
在线阅读
下载PDF
职称材料
2
基于改进DQN强化学习算法的弹性光网络资源分配研究
尚晓凯
韩龙龙
翟慧鹏
《光通信技术》
2023
3
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部