期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于改进MAML与GVAE的容量约束车辆路径问题求解方法
1
作者
张焱鹏
赵于前
+3 位作者
张帆
丘腾海
桂瑰
余伶俐
《计算机应用》
北大核心
2025年第11期3642-3648,共7页
基于深度强化学习(DRL)的车辆路径规划方法以其求解速度快、端到端等优势受到广泛关注,但现有方法大多局限于对节点分布均匀和数量固定问题的求解,当面临节点不平均分布以及节点数变化的情况时,求解效果有所下降。针对这一问题,提出一...
基于深度强化学习(DRL)的车辆路径规划方法以其求解速度快、端到端等优势受到广泛关注,但现有方法大多局限于对节点分布均匀和数量固定问题的求解,当面临节点不平均分布以及节点数变化的情况时,求解效果有所下降。针对这一问题,提出一种基于改进模型无关的元学习(MAML)和图变分自编码器(GVAE)的元学习框架,旨在通过元训练得到一个良好的初始化模型,并针对数据集外分布的任务进行快速微调,从而提升模型的泛化性能;此外利用GVAE初始化元学习框架的参数,以进一步提升元学习效果。实验结果表明,所提方法可以较好地处理不同节点分布情况下的车辆路径问题(VRP),在面对不同节点数量问题时也有较好的表现,在5种任务上的平均偏差率较未使用元学习的方法降低了0.45个百分点。利用元学习框架可有效提升强化学习的效果,与先进求解器相比,所提框架在保证成本接近的前提下可有效缩短求解时间。
展开更多
关键词
车辆路径问题
深度强化学习
元学习
图变分自编码器
组合优化
策略梯度方法
在线阅读
下载PDF
职称材料
题名
基于改进MAML与GVAE的容量约束车辆路径问题求解方法
1
作者
张焱鹏
赵于前
张帆
丘腾海
桂瑰
余伶俐
机构
中南大学
自动化学院
工业
智能与
系统
教育部
重点
实验室
(
中南大学
)
中国科学院自动化研究所
出处
《计算机应用》
北大核心
2025年第11期3642-3648,共7页
基金
国家重点研发计划项目(2022YFE0112300)
湖南省重点研发计划项目(2023GK2021,2024JK2028)。
文摘
基于深度强化学习(DRL)的车辆路径规划方法以其求解速度快、端到端等优势受到广泛关注,但现有方法大多局限于对节点分布均匀和数量固定问题的求解,当面临节点不平均分布以及节点数变化的情况时,求解效果有所下降。针对这一问题,提出一种基于改进模型无关的元学习(MAML)和图变分自编码器(GVAE)的元学习框架,旨在通过元训练得到一个良好的初始化模型,并针对数据集外分布的任务进行快速微调,从而提升模型的泛化性能;此外利用GVAE初始化元学习框架的参数,以进一步提升元学习效果。实验结果表明,所提方法可以较好地处理不同节点分布情况下的车辆路径问题(VRP),在面对不同节点数量问题时也有较好的表现,在5种任务上的平均偏差率较未使用元学习的方法降低了0.45个百分点。利用元学习框架可有效提升强化学习的效果,与先进求解器相比,所提框架在保证成本接近的前提下可有效缩短求解时间。
关键词
车辆路径问题
深度强化学习
元学习
图变分自编码器
组合优化
策略梯度方法
Keywords
Vehicle Routing Problem(VRP)
Deep Reinforcement Learning(DRL)
meta-learning
Graph Variational AutoEncoder(GVAE)
combinatorial optimization
policy gradient method
分类号
TP181 [自动化与计算机技术—控制理论与控制工程]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于改进MAML与GVAE的容量约束车辆路径问题求解方法
张焱鹏
赵于前
张帆
丘腾海
桂瑰
余伶俐
《计算机应用》
北大核心
2025
0
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部