为解决基于深度强化学习的AUV跟踪控制器在面临新任务时需从零开始训练、训练速度慢、稳定性差等问题,设计一种基于元强化学习的AUV多任务快速自适应控制算法——R-SAC(Reptile-Soft Actor Critic)算法。R-SAC算法将元学习与强化学习相...为解决基于深度强化学习的AUV跟踪控制器在面临新任务时需从零开始训练、训练速度慢、稳定性差等问题,设计一种基于元强化学习的AUV多任务快速自适应控制算法——R-SAC(Reptile-Soft Actor Critic)算法。R-SAC算法将元学习与强化学习相结合,结合水下机器人运动学及动力学方程对跟踪任务进行建模,利用RSAC算法在训练阶段为AUV跟踪控制器获得一组最优初始值模型参数,使模型在面临不同的任务时,基于该组参数进行训练时能够快速收敛,实现快速自适应不同任务。仿真结果表明,所提出的方法与随机初始化强化学习控制器相比,收敛速度最低提高了1.6倍,跟踪误差保持在2.8%以内。展开更多
为了减小车辆振动,提高车辆乘坐舒适性和操纵稳定性,将惯容器与非线性能量汇相结合,构建惯容非线性能量汇(Nonlinear Energy Sink Inerter,NESI),并将其运用于车辆悬架和座椅悬架,进一步提出一种基于遗传算法的无模型自适应控制方法(Mod...为了减小车辆振动,提高车辆乘坐舒适性和操纵稳定性,将惯容器与非线性能量汇相结合,构建惯容非线性能量汇(Nonlinear Energy Sink Inerter,NESI),并将其运用于车辆悬架和座椅悬架,进一步提出一种基于遗传算法的无模型自适应控制方法(Model-free Adaptive Control,MFAC)。研究了采用MFAC方法的耦合NESI的车-座椅系统在路面随机激励下的动态特性,并与被动系统和比例积分微分(Proportional Integral Derivative,PID)控制系统进行对比。结果表明,与车-座椅被动系统相比,采用MFAC方法的车-座椅系统的车身垂直加速度与座椅垂直加速度均方根值在低中高车速下都显著减小;与PID控制相比,车身垂直加速度、座椅垂直加速度、悬架动行程和轮胎动载荷均方根值在低、中、高车速下都有所降低。展开更多
文摘为解决基于深度强化学习的AUV跟踪控制器在面临新任务时需从零开始训练、训练速度慢、稳定性差等问题,设计一种基于元强化学习的AUV多任务快速自适应控制算法——R-SAC(Reptile-Soft Actor Critic)算法。R-SAC算法将元学习与强化学习相结合,结合水下机器人运动学及动力学方程对跟踪任务进行建模,利用RSAC算法在训练阶段为AUV跟踪控制器获得一组最优初始值模型参数,使模型在面临不同的任务时,基于该组参数进行训练时能够快速收敛,实现快速自适应不同任务。仿真结果表明,所提出的方法与随机初始化强化学习控制器相比,收敛速度最低提高了1.6倍,跟踪误差保持在2.8%以内。
文摘为了减小车辆振动,提高车辆乘坐舒适性和操纵稳定性,将惯容器与非线性能量汇相结合,构建惯容非线性能量汇(Nonlinear Energy Sink Inerter,NESI),并将其运用于车辆悬架和座椅悬架,进一步提出一种基于遗传算法的无模型自适应控制方法(Model-free Adaptive Control,MFAC)。研究了采用MFAC方法的耦合NESI的车-座椅系统在路面随机激励下的动态特性,并与被动系统和比例积分微分(Proportional Integral Derivative,PID)控制系统进行对比。结果表明,与车-座椅被动系统相比,采用MFAC方法的车-座椅系统的车身垂直加速度与座椅垂直加速度均方根值在低中高车速下都显著减小;与PID控制相比,车身垂直加速度、座椅垂直加速度、悬架动行程和轮胎动载荷均方根值在低、中、高车速下都有所降低。