近年来,城市轨道交通系统运营规模不断扩大,使得城市轨道交通系统的电能耗急剧增长。列车牵引能耗是城轨系统电能耗中占比最大的一部分,因此,降低列车的牵引能耗对于实现城市轨道交通系统的绿色发展至关重要。为了使列车在保证站间运行...近年来,城市轨道交通系统运营规模不断扩大,使得城市轨道交通系统的电能耗急剧增长。列车牵引能耗是城轨系统电能耗中占比最大的一部分,因此,降低列车的牵引能耗对于实现城市轨道交通系统的绿色发展至关重要。为了使列车在保证站间运行安全和准时的同时更为节能地运行,提出一种带有调整机制的深度强化学习列车节能运行控制方法。首先,建立列车站间运行控制模型,然后将车载控制器视为智能体,根据列车在站间运行的约束构建列车运行控制强化学习框架,并对强化学习的基本要素进行定义,通过利用决斗双深度Q网络(Dueling Double Deep Q-Network,DDDQN)算法不断地训练得到最优的站间运行控制策略。在此基础上加入一种调整机制以一定概率对智能体的输出进行干预,在保证算法探索能力的同时,提高算法的学习效率和模型的收敛速度。最后,以北京地铁亦庄线的实际线路数据进行算例分析,仿真结果显示该算法相比于差分进化算法和原始DQN算法能够节省6.7%和5.5%的牵引能耗,在保证列车站间运行安全准时的前提下具有更好的节能效益和收敛速度。另外,通过分别在增加临时限速区段和临时调整计划运行时间的情况下进行仿真实验,验证了该算法能够应对运行场景的变化,动态地对控制策略进行调整以保证列车能够准时到站。展开更多
文摘近年来,城市轨道交通系统运营规模不断扩大,使得城市轨道交通系统的电能耗急剧增长。列车牵引能耗是城轨系统电能耗中占比最大的一部分,因此,降低列车的牵引能耗对于实现城市轨道交通系统的绿色发展至关重要。为了使列车在保证站间运行安全和准时的同时更为节能地运行,提出一种带有调整机制的深度强化学习列车节能运行控制方法。首先,建立列车站间运行控制模型,然后将车载控制器视为智能体,根据列车在站间运行的约束构建列车运行控制强化学习框架,并对强化学习的基本要素进行定义,通过利用决斗双深度Q网络(Dueling Double Deep Q-Network,DDDQN)算法不断地训练得到最优的站间运行控制策略。在此基础上加入一种调整机制以一定概率对智能体的输出进行干预,在保证算法探索能力的同时,提高算法的学习效率和模型的收敛速度。最后,以北京地铁亦庄线的实际线路数据进行算例分析,仿真结果显示该算法相比于差分进化算法和原始DQN算法能够节省6.7%和5.5%的牵引能耗,在保证列车站间运行安全准时的前提下具有更好的节能效益和收敛速度。另外,通过分别在增加临时限速区段和临时调整计划运行时间的情况下进行仿真实验,验证了该算法能够应对运行场景的变化,动态地对控制策略进行调整以保证列车能够准时到站。