期刊文献+
共找到7篇文章
< 1 >
每页显示 20 50 100
基于改进双重深度Q网络的入侵检测模型 被引量:3
1
作者 吴亚丽 王君虎 郑帅龙 《计算机工程与应用》 CSCD 北大核心 2022年第16期102-110,共9页
入侵检测技术作为网络安全有效的防御手段,是网络安全体系中的重要组成部分。随着互联网的快速发展,网络数据量快速增加,网络攻击更加趋于复杂化和多元化,目前主流的入侵检测技术无法有效识别各种攻击。针对实际网络环境中正常流量和攻... 入侵检测技术作为网络安全有效的防御手段,是网络安全体系中的重要组成部分。随着互联网的快速发展,网络数据量快速增加,网络攻击更加趋于复杂化和多元化,目前主流的入侵检测技术无法有效识别各种攻击。针对实际网络环境中正常流量和攻击流量数据不平衡,且对攻击类流量检测率低的问题,基于深度强化学习提出一种基于改进双重深度Q网络的CBL_DDQN网络入侵检测模型。该模型将一维卷积神经网络和双向长短期记忆网络的混合网络模型引入深度强化学习的DDQN框架,并使用深度强化学习中的反馈学习和策略生成机制训练智能体来对不同类别的攻击样本进行分类,在一定程度上减弱了训练模型过程中对数据标签的依赖性。采用Borderline-SMOTE算法降低数据的不平衡度,从而提高稀有攻击的检测率。通过NSL_KDD和UNSW_NB15数据集对模型的性能进行评估,结果表明:该模型在准确率、精确率、召回率这三项指标上均取得了良好的结果,检测效果远优于Adam-BNDNN、KNN、SVM等检测方法,是一种高效的网络入侵检测模型。 展开更多
关键词 入侵检测 深度强化学习 双重深度q网络 卷积神经网络(CNN) 长短期记忆网络(LSTM)
在线阅读 下载PDF
基于课程式双重DQN的水下无人航行器路径规划 被引量:3
2
作者 王莹莹 周佳加 +1 位作者 高峰 管凤旭 《实验室研究与探索》 CAS 北大核心 2022年第3期244-248,共5页
针对水下无人航行器路径规划中强化学习方法存在训练不稳定、时间长的弊端,提出了一种课程式双重深度Q学习网络(DQN)算法。该算法融合经验回放池技术,有效缩短了训练时间,并消除了Q学习网络引起的最大化偏差问题。同时,结合课程式学习... 针对水下无人航行器路径规划中强化学习方法存在训练不稳定、时间长的弊端,提出了一种课程式双重深度Q学习网络(DQN)算法。该算法融合经验回放池技术,有效缩短了训练时间,并消除了Q学习网络引起的最大化偏差问题。同时,结合课程式学习改进双重DQN算法,加快了学习收敛速度。通过静态、动态障碍物环境的水下无人航行器路径规划仿真结果表明,所提出的课程式双重DQN算法可行、有效。该实验仿真研究可培养学生开展独立科学研究的能力。 展开更多
关键词 水下无人航行器 路径规划 双重深度q网络 课程式学习
在线阅读 下载PDF
基于文件工作流和强化学习的工程项目文件管理优化方法
3
作者 司鹏搏 庞睿 +2 位作者 杨睿哲 孙艳华 李萌 《北京工业大学学报》 北大核心 2025年第10期1162-1170,共9页
为了解决大型工程项目中文件的传输时间与成本问题,提出一个基于文件工作流的工程项目文件管理优化方法。首先,构建了工程项目文件管理环境和具有逻辑顺序的文件工作流模型,分析了文件的传输和缓存。在此基础上,将文件管理优化问题建模... 为了解决大型工程项目中文件的传输时间与成本问题,提出一个基于文件工作流的工程项目文件管理优化方法。首先,构建了工程项目文件管理环境和具有逻辑顺序的文件工作流模型,分析了文件的传输和缓存。在此基础上,将文件管理优化问题建模为马尔可夫过程,通过设计状态空间、动作空间及奖励函数等实现文件工作流的任务完成时间与缓存成本的联合优化。其次,采用对抗式双重深度Q网络(dueling double deep Q network,D3QN)来降低训练时间,提高训练效率。仿真结果验证了提出方案在不同参数配置下文件传输的有效性,并且在任务体量增大时仍能保持较好的优化能力。 展开更多
关键词 文件工作流 传输时间 马尔可夫过程 对抗式双重深度q网络(dueling double deep q network D3qN) 文件管理 联合优化
在线阅读 下载PDF
基于D3QN的无人机编队控制技术 被引量:6
4
作者 赵启 甄子洋 +3 位作者 龚华军 曹红波 李荣 刘继承 《北京航空航天大学学报》 EI CAS CSCD 北大核心 2023年第8期2137-2146,共10页
针对无人机编队中控制器设计需要基于模型信息,以及无人机智能化程度低等问题,采用深度强化学习解决编队控制问题。针对编队控制问题设计对应强化学习要素,并设计基于深度强化学习对偶双重深度Q网络(D3QN)算法的编队控制器,同时提出一... 针对无人机编队中控制器设计需要基于模型信息,以及无人机智能化程度低等问题,采用深度强化学习解决编队控制问题。针对编队控制问题设计对应强化学习要素,并设计基于深度强化学习对偶双重深度Q网络(D3QN)算法的编队控制器,同时提出一种优先选择策略与多层动作库结合的方法,加快算法收敛速度并使僚机最终能够保持到期望距离。通过仿真将设计的控制器与PID控制器、Backstepping控制器对比,验证D3QN控制器的有效性。仿真结果表明:该控制器可应用于无人机编队,提高僚机智能化程度,自主学习保持到期望距离,且控制器设计无需模型精确信息,为无人机编队智能化控制提供了依据与参考。 展开更多
关键词 无人机编队 编队控制 深度强化学习 深度q网络 对偶双重深度q网络
在线阅读 下载PDF
基于引导Minimax-DDQN的无人机空战机动决策 被引量:7
5
作者 王昱 任田君 范子琳 《计算机应用》 CSCD 北大核心 2023年第8期2636-2643,共8页
针对无人机(UAV)空战环境信息复杂、对抗性强所导致的敌机机动策略难以预测,以及作战胜率不高的问题,设计了一种引导Minimax-DDQN(Minimax-Double Deep Q-Network)算法。首先,在Minimax决策方法的基础上提出了一种引导式策略探索机制;然... 针对无人机(UAV)空战环境信息复杂、对抗性强所导致的敌机机动策略难以预测,以及作战胜率不高的问题,设计了一种引导Minimax-DDQN(Minimax-Double Deep Q-Network)算法。首先,在Minimax决策方法的基础上提出了一种引导式策略探索机制;然后,结合引导Minimax策略,以提升Q网络更新效率为出发点设计了一种DDQN(Double Deep Q-Network)算法;最后,提出进阶式三阶段的网络训练方法,通过不同决策模型间的对抗训练,获取更为优化的决策模型。实验结果表明,相较于Minimax-DQN(Minimax-DQN)、Minimax-DDQN等算法,所提算法追击直线目标的成功率提升了14%~60%,并且与DDQN算法的对抗胜率不低于60%。可见,与DDQN、Minimax-DDQN等算法相比,所提算法在高对抗的作战环境中具有更强的决策能力,适应性更好。 展开更多
关键词 无人机空战 自主决策 深度强化学习 双重深度q网络 多阶段训练
在线阅读 下载PDF
面向智能工厂多机器人定位的无线分布式协同决策 被引量:2
6
作者 张文璐 霍子龙 +2 位作者 赵西雨 崔琪楣 陶小峰 《无线电通信技术》 2022年第4期718-727,共10页
由于未来智能工厂中智能机器人的工作环境复杂多变,机器人进行协作定位时无法获知全局信道状态,其选择的标定节点可能被其他机器人占用,导致定位性能的波动较大,稳定性差。针对该问题,提出了基于双重深度超Q神经网络(DDHQN)的多机器人... 由于未来智能工厂中智能机器人的工作环境复杂多变,机器人进行协作定位时无法获知全局信道状态,其选择的标定节点可能被其他机器人占用,导致定位性能的波动较大,稳定性差。针对该问题,提出了基于双重深度超Q神经网络(DDHQN)的多机器人协同决策算法;首先将多机器人进行协作定位时的决策系统构建为竞争加合作模型,并通过奖励函数的设计鼓励机器人参与协作;为了避免机器人之间的决策冲突,引入表示机器人决策轨迹的记录空间以实现对其他机器人的行为预估,记录空间的内容依据机器人的无线感知结果进行迭代更新;最后,仿真证明了所提出的基于DDHQN的多机器人协同决策算法使得每个机器人能够以群体性能最大为目标进行独立学习,在一定的迭代次数后可以实现精准的行为预估,并收敛到稳定有效的决策方案。 展开更多
关键词 双重深度q神经网络(DDHqN) 多机器人协同 标定节点选择 决策轨迹 行为预估 无线感知
在线阅读 下载PDF
基于强化学习的六足机器人动态避障研究 被引量:8
7
作者 董星宇 唐开强 +2 位作者 傅汇乔 留沧海 蒋刚 《传感器与微系统》 CSCD 北大核心 2022年第1期19-23,共5页
针对局部可观测的非线性动态地震环境下,六足机器人采用传统算法进行动态避障时易出现算法不稳定的情况。运用了基于双重深度Q网络(DDQN)的决策方式,通过传感器数据输入卷积神经网络(CNN)并结合强化学习的策略,下达命令到六足机器人,控... 针对局部可观测的非线性动态地震环境下,六足机器人采用传统算法进行动态避障时易出现算法不稳定的情况。运用了基于双重深度Q网络(DDQN)的决策方式,通过传感器数据输入卷积神经网络(CNN)并结合强化学习的策略,下达命令到六足机器人,控制输出决策动作,实现机器人动态避障。将系统的环境反馈与决策控制直接形成闭环,通过最大化机器人与避障环境交互产生的累计奖励回报,更新神经网络权重,形成最优决策策略。通过六足机器人平台实验结果证明:此方法能较好地减少传统深度强化学习算法容易导致过度估计状态动作值和损失函数难以收敛的风险;并且提高了六足机器人进行动态避障的效率和稳定性。 展开更多
关键词 双重深度q网络 六足机器人 动态避障 传感器输入
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部