期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
基于本体的网络攻防博弈知识库构建方法研究 被引量:1
1
作者 史云放 武东英 +1 位作者 刘胜利 高翔 《计算机应用研究》 CSCD 北大核心 2014年第11期3460-3464,共5页
针对目前还没有一个较为完善的攻防博弈知识库的情况,对基于本体的博弈知识库的构建方法进行了研究。首先对网络攻防博弈过程中所需要的博弈知识进行分析梳理,描述出知识库的体系结构;然后提出了一种网络攻防博弈知识库的构建框架,并根... 针对目前还没有一个较为完善的攻防博弈知识库的情况,对基于本体的博弈知识库的构建方法进行了研究。首先对网络攻防博弈过程中所需要的博弈知识进行分析梳理,描述出知识库的体系结构;然后提出了一种网络攻防博弈知识库的构建框架,并根据此构建框架提出了构建算法;最后通过一个应用示例对算法进行了验证。结果表明构建算法是可用并有效的。 展开更多
关键词 本体 网络攻防博弈 知识库 RDF(S)
在线阅读 下载PDF
一种面向博弈场景的PPO-Dueling DQN策略优化方法
2
作者 刘鹏程 汪永伟 +2 位作者 余欣鋆 刘小虎 胡浩 《小型微型计算机系统》 北大核心 2025年第11期2594-2599,共6页
传统的深度Q学习训练算法改进通常侧重于奖励函数的优化,相对缺少策略的自优化和收敛梯度的动态调整.本文针对该问题,在Dueling-DQN算法的基础上提出了一种混合算法PPO-Dueling DQN,该算法一方面能够使用策略梯度下降和自适应KL散度惩... 传统的深度Q学习训练算法改进通常侧重于奖励函数的优化,相对缺少策略的自优化和收敛梯度的动态调整.本文针对该问题,在Dueling-DQN算法的基础上提出了一种混合算法PPO-Dueling DQN,该算法一方面能够使用策略梯度下降和自适应KL散度惩罚机制,实现目标函数损失和值函数损失的同步更新,进而优化模型的损失函数和策略选择,另一方面能更加实时地提取博弈过程中的状态价值和动作优势,从而避免依靠单一指标进行策略更新和效能评估.通过对比实验,验证了面向网络博弈模型的PPO-Dueling DQN算法在学习能力、收敛速度和自适应效能等指标上的优化效果,并进行了关于折扣因子的参数分析以更好地评估模型效能,实验结果证明本文提出的算法相对于基准模型具有一定的性能优势. 展开更多
关键词 强化学习 深度Q网络 PPO算法 网络攻防博弈 效能评估
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部