期刊文献+
共找到7篇文章
< 1 >
每页显示 20 50 100
基于双深度Q网络的车联网安全位置路由
1
作者 米洪 郑莹 《无线电通信技术》 北大核心 2025年第1期96-105,共10页
作为智能交通系统中的支撑技术,车联网(Internet of Vehicle,IoV)已受到广泛关注。由于IoV网络拓扑结构的动态变化以及灰洞攻击,构建稳定的安全位置路由是一项挑战工作。为此,提出基于双深度Q网络的安全位置路由(Double DQN-based Secur... 作为智能交通系统中的支撑技术,车联网(Internet of Vehicle,IoV)已受到广泛关注。由于IoV网络拓扑结构的动态变化以及灰洞攻击,构建稳定的安全位置路由是一项挑战工作。为此,提出基于双深度Q网络的安全位置路由(Double DQN-based Secure Location Routing,DSLR)。DSLR通过防御灰洞攻击提升消息传递率(Message Delivery Ratio,MDR),并降低消息的传输时延。构建以丢包率和链路连通时间为约束条件的优化问题,利用双深度Q网络算法求解。为了提升DSLR的收敛性,基于连通时间、丢包率和传输时延构建奖励函数,引导智能体选择满足要求的转发节点。采用动态的探索因子机制,平衡探索与利用间的关系,进而加速算法的收敛。仿真结果表明,相比于同类算法,提出的DSLR提升了MDR,减少了传输时延。 展开更多
关键词 车联网 位置路由 灰洞攻击 双深度Q网络 动态探索因子
在线阅读 下载PDF
基于DBSDER-QL算法的应急物资分配策略
2
作者 杨皓 张池军 张辛未 《吉林大学学报(理学版)》 北大核心 2025年第4期1105-1116,共12页
针对自然灾害应急物资分配的问题,提出一种基于动态Boltzmann Softmax(DBS)和动态探索率(DER)的Q-learning算法(dynamic Boltzmann Softmax and dynamic exploration rate based-Q-learning,DBSDER-QL).首先,采用动态Boltzmann Softmax... 针对自然灾害应急物资分配的问题,提出一种基于动态Boltzmann Softmax(DBS)和动态探索率(DER)的Q-learning算法(dynamic Boltzmann Softmax and dynamic exploration rate based-Q-learning,DBSDER-QL).首先,采用动态Boltzmann Softmax策略,通过动态调整动作价值的权重,促进算法的稳定收敛,解决了最大运算符的过度贪婪问题.其次,采用动态探索率策略提高算法的收敛性和稳定性,解决了固定探索率Q-learning算法在训练后期无法完全收敛到最优策略的问题.最后,通过消融实验验证了DBS和DER策略的有效性.与动态规划算法、贪心算法及传统Q-learning算法进行对比的实验结果表明,DBSDER-QL算法在总成本和计算效率方面均明显优于传统方法,展现了更高的适用性和有效性. 展开更多
关键词 物资分配 强化学习 Q-learning算法 动态探索 动态Boltzmann Softmax
在线阅读 下载PDF
融合多策略改进的鲸鱼优化算法 被引量:2
3
作者 王玉芳 程培浩 《计算机工程与应用》 北大核心 2025年第8期83-99,共17页
为解决鲸鱼优化算法(whale optimization algorithm,WOA)的收敛精度低和易陷入局部最优等缺点,提出一种多策略改进的鲸鱼优化算法(multi-strategy improved whale optimization algorithm,MSWOA)。设计一种动态自适应探索转换概率替代... 为解决鲸鱼优化算法(whale optimization algorithm,WOA)的收敛精度低和易陷入局部最优等缺点,提出一种多策略改进的鲸鱼优化算法(multi-strategy improved whale optimization algorithm,MSWOA)。设计一种动态自适应探索转换概率替代原算法中的随机探索概率,使得靠近最优个体的优秀个体更易引导全局搜索,有利于增强解的质量,防止算法陷入局部最优;引入鲸鱼个体聚集度的概念,当鲸鱼陷入聚集状态时采用大步长更新位置,防止迭代后期种群多样性减少;设计一种邻域解变异增强策略同时考虑当前个体与其相邻个体对下一代个体位置的影响,以防止种群进入聚集状态,提高算法跳出局部最优的能力。仿真实验基于CEC2017中29个测试函数和CEC2019中的10个测试函数进行,分别探究了3个改进策略对算法的探索与开发的影响、对种群多样性的影响以及对算法收敛性的影响。收敛性分析、Wilcoxon秩和检验和Fridman检验表明MSWOA具有良好的寻优性和鲁棒性。进一步,将MSWOA应用于压力容器设计和减速器设计问题上,验证了MSWOA在求解实际问题中的有效性和可靠性。 展开更多
关键词 鲸鱼优化算法 动态自适应探索转换策略 鲸鱼个体聚集度跟随策略 邻域解变异增强策略 工程优化
在线阅读 下载PDF
融合多策略的沙猫群算法及其应用
4
作者 班云飞 张达敏 +1 位作者 左锋琴 沈倩雯 《计算机工程与设计》 北大核心 2025年第7期2054-2062,共9页
针对沙猫群算法易陷入局部最优、收敛速度慢等问题,提出一种融合多策略的沙猫群算法。将经典SCSO搜索阶段的位置更新公式做结构变体,增加种群的多样性;提出自适应麻雀因子提高算法的收敛速度和精度;在开发阶段引入动态螺旋探索策略,以... 针对沙猫群算法易陷入局部最优、收敛速度慢等问题,提出一种融合多策略的沙猫群算法。将经典SCSO搜索阶段的位置更新公式做结构变体,增加种群的多样性;提出自适应麻雀因子提高算法的收敛速度和精度;在开发阶段引入动态螺旋探索策略,以一种选择概率控制该策略的作用阶段,避免算法陷入局部最优。与其它算法在8个基准测试函数和Wilcoxon秩和检验上进行对比,实验结果表明,改进算法的寻优精度高、收敛速度快且具有跳出局部最优的能力,同时将其应用在5G基站中心选址问题中,验证了算法在实际应用中的有效性和可行性。 展开更多
关键词 沙猫群算法 结构变体 自适应麻雀因子 动态螺旋探索策略 5G基站中心选址 基准测试函数 秩和检验
在线阅读 下载PDF
多策略改进蜣螂算法的无人机航迹规划
5
作者 谢涛 谭飞 李苗苗 《传感器与微系统》 北大核心 2025年第6期132-137,共6页
针对复杂环境下的无人机(UAV)航迹规划问题,提出了一种多策略改进蜣螂优化(MSDBO)算法的无人机航迹规划方法。首先,构建无人机三维任务环境与航迹代价函数;其次,采用Circle混沌映射策略初始化种群,使得蜣螂个体更好地遍历解空间;引入动... 针对复杂环境下的无人机(UAV)航迹规划问题,提出了一种多策略改进蜣螂优化(MSDBO)算法的无人机航迹规划方法。首先,构建无人机三维任务环境与航迹代价函数;其次,采用Circle混沌映射策略初始化种群,使得蜣螂个体更好地遍历解空间;引入动态随机邻域探索策略改进滚球蜣螂位置更新公式,提高算法的全局搜索能力;引入随机方向自适应变步长探索策略,引导繁殖蜣螂的位置更新,有效平衡全局探索和局部搜索之间的关系,提高算法的收敛速度;最后,采用变异策略,对当前最优位置进行随机扰动,引导算法跳出局部最优位置。利用6个标准测试函数和无人机航迹规划进行仿真实验,实验结果表明:MSDBO算法相较于其他对比算法收敛速度更快,寻优能力更好,规划的航迹质量更优。 展开更多
关键词 无人机 航迹规划 蜣螂算法 动态随机邻域探索策略 随机方向自适应变步长探索策略
在线阅读 下载PDF
知识和组织惯例互动演化视角下后发企业动态能力的微观基础 被引量:18
6
作者 刘立娜 于渤 《管理学报》 CSSCI 北大核心 2019年第7期1044-1053,共10页
为了追踪后发企业动态能力的微观基础,探究后发企业动态能力的来源、形成机制及其演进规律,构架一个基于知识和组织惯例互动演化视角的动态能力形成和演化的理论框架。依据这一研究框架,对哈尔滨电站设备集团公司(简称哈电集团)进行纵... 为了追踪后发企业动态能力的微观基础,探究后发企业动态能力的来源、形成机制及其演进规律,构架一个基于知识和组织惯例互动演化视角的动态能力形成和演化的理论框架。依据这一研究框架,对哈尔滨电站设备集团公司(简称哈电集团)进行纵向案例研究。研究表明:后发企业动态能力的微观基础,是由利用式动态能力和探索式动态能力两个维度以及每个维度下特定的过程和惯例构成;后发企业动态能力的形成是知识和组织惯例互动演化的结果;在知识和组织惯例互动演化的过程中,后发企业动态能力呈现出利用式动态能力向探索式动态能力演化的演进规律。 展开更多
关键词 动态能力 利用式动态能力 探索动态能力 知识 组织惯例
在线阅读 下载PDF
基于启发式深度Q学习的多机器人任务分配算法 被引量:16
7
作者 张子迎 陈云飞 +1 位作者 王宇华 冯光升 《哈尔滨工程大学学报》 EI CAS CSCD 北大核心 2022年第6期857-864,共8页
针对多机器人任务分配方法在环境复杂性增加时出现的维度灾难问题,本文提出了一种基于启发式深度Q学习的多机器人多任务分配算法。采用神经网络代替传统强化学习中的Q值,避免了强化学习在高维度空间下的状态-动作空间的局限性问题;将轨... 针对多机器人任务分配方法在环境复杂性增加时出现的维度灾难问题,本文提出了一种基于启发式深度Q学习的多机器人多任务分配算法。采用神经网络代替传统强化学习中的Q值,避免了强化学习在高维度空间下的状态-动作空间的局限性问题;将轨迹池引入深度Q学习算法中启发动作的选择策略,提高了算法的收敛速度;在动作选择决策之中引入动态探索因子,保证算法对环境中的未知空间的充分探索,进而提高算法的学习效率。通过实验证明:基于启发式深度Q学习的任务分配算法成功缓解了复杂环境下多机器人多任务分配的维度灾难问题,通过实验对比,证明基于启发式深度Q学习的任务分配算法在收敛速度和任务分配结果方面存在明显的提升。 展开更多
关键词 任务分配 神经网络 强化学习 Q值 高纬度 启发式深度Q学习 维度灾难 动态探索
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部