期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
基于大语言模型的兵棋推演智能决策技术
1
作者 王彤 赵美静 +3 位作者 徐沛 尹奇跃 焦建彬 黄凯奇 《自动化学报》 北大核心 2025年第6期1205-1217,共13页
兵棋推演通过控制棋子的行为来模拟真实的对抗场景,在智能决策领域具有重大研究意义.已有的研究大多聚焦于知识驱动的规则型智能体或数据驱动的学习型智能体.尽管这些方法在小规模兵棋推演上取得一定的进展,但是由于知识规则的高获取代... 兵棋推演通过控制棋子的行为来模拟真实的对抗场景,在智能决策领域具有重大研究意义.已有的研究大多聚焦于知识驱动的规则型智能体或数据驱动的学习型智能体.尽管这些方法在小规模兵棋推演上取得一定的进展,但是由于知识规则的高获取代价、弱泛化性,以及学习算法的低稳定性、学习过程的高算力需求,导致已有方法难以在更加贴近真实场景的大规模兵棋推演环境中灵活应用.为缓解上述问题,提出基于大语言模型的大规模多智能体分层任务规划框架,该框架利用大语言模型分别进行组队层次的粗粒度任务规划和个体层次的细粒度任务分解,围绕“规划−交流−记忆−反思”实现策略生成.相较于之前的工作,该方法能有效缓解泛化性的难题,同时在维持智能体一定的自我增强能力的情况下避免对智能体参数的高成本训练.实验表明,该模型能以较高胜率击败高水平AI,且具备自我增强能力、泛化能力以及可解释能力,在大规模对抗环境中具有显著优势. 展开更多
关键词 兵棋推演 策略生成 大语言模型 分层任务规划
在线阅读 下载PDF
基于MARL-MHSA架构的水下仿生机器人协同围捕策略:数据驱动建模与分布式策略优化
2
作者 冯育凯 吴正兴 谭民 《自动化学报》 北大核心 2025年第10期2269-2282,共14页
针对水下仿生机器人集群的围捕−逃逸问题,提出一种融合多头自注意力机制的多智能体强化学习策略训练框架.该框架构建一种基于多头自注意力机制的中心化决策网络,在提升策略训练效率的同时,保留分布式决策架构,有效增强个体的自主决策能... 针对水下仿生机器人集群的围捕−逃逸问题,提出一种融合多头自注意力机制的多智能体强化学习策略训练框架.该框架构建一种基于多头自注意力机制的中心化决策网络,在提升策略训练效率的同时,保留分布式决策架构,有效增强个体的自主决策能力与群体间的协同性能.此外,针对策略由仿真环境向真实场景迁移过程中动力学建模不精确、感知−动作存在偏差等挑战,构建一种由真实场景机器鱼运动数据驱动的仿真环境,有效提升了策略的可迁移性与部署的可靠性.通过仿真与真实场景实验验证了所提方法在水下仿生机器人协同围捕任务中的有效性.相较于多智能体近端策略优化算法,该方法可使平均围捕成功率提升24.3%、平均围捕步长减少30.9%,显著提升了水下仿生机器人集群的协同围捕效率.该研究为多智能体强化学习在水下仿生机器人集群任务中的应用提供了新的思路和技术支持. 展开更多
关键词 仿生机器鱼 围捕−逃逸问题 深度强化学习 数据驱动建模 注意力机制
在线阅读 下载PDF
面向轻量卷积神经网络的训练后量化方法
3
作者 杨杰 李琮 +3 位作者 胡庆浩 陈显达 王云鹏 刘晓晶 《图学学报》 北大核心 2025年第4期709-718,共10页
当前训练后量化方法(post-training quantization)在高比特量化位宽下可以实现精度近乎无损的量化,但对于轻量卷积神经网络(CNN)来说,其量化误差仍然不可忽视,特别是低位宽(<4比特)量化的情况。针对该问题,提出了一种面向轻量CNN的... 当前训练后量化方法(post-training quantization)在高比特量化位宽下可以实现精度近乎无损的量化,但对于轻量卷积神经网络(CNN)来说,其量化误差仍然不可忽视,特别是低位宽(<4比特)量化的情况。针对该问题,提出了一种面向轻量CNN的训练后量化方法,即块级批归一化学习(BBL)方法。不同于当前训练后量化方法合并批归一化层的方式,该方法以模型块为单位保留批归一化层的权重,基于块级特征图重建损失对模型量化参数和批归一化层的参数进行学习,且更新批归一化层的均值和方差等统计量,以一种简单且有效的方式缓解了轻量CNN在低比特量化时产生的分布漂移问题。其次,为了降低训练后量化方法对校准数据集的过拟合,构建了块级的数据增强方法,避免不同模型块对同一批校准数据进行学习。并在ImageNet数据集上进行了实验验证,实验结果表明,相比于当前训练后量化算法,BBL方法识别精度最高能提升7.72个百分点,并有效减少轻量CNN在低比特训练后量化时产生的量化误差。 展开更多
关键词 深度神经网络压缩 训练后量化 低比特量化 轻量卷积神经网络 轻量化智能
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部