期刊文献+
共找到9篇文章
< 1 >
每页显示 20 50 100
Fuzzy Q learning algorithm for dual-aircraft path planning to cooperatively detect targets by passive radars 被引量:7
1
作者 Xiang Gao Yangwang Fang Youli Wu 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2013年第5期800-810,共11页
The problem of passive detection discussed in this paper involves searching and locating an aerial emitter by dualaircraft using passive radars. In order to improve the detection probability and accuracy, a fuzzy Q le... The problem of passive detection discussed in this paper involves searching and locating an aerial emitter by dualaircraft using passive radars. In order to improve the detection probability and accuracy, a fuzzy Q learning algorithrn for dual-aircraft flight path planning is proposed. The passive detection task model of the dual-aircraft is set up based on the partition of the target active radar's radiation area. The problem is formulated as a Markov decision process (MDP) by using the fuzzy theory to make a generalization of the state space and defining the transition functions, action space and reward function properly. Details of the path planning algorithm are presented. Simulation results indicate that the algorithm can provide adaptive strategies for dual-aircraft to control their flight paths to detect a non-maneuvering or maneu- vering target. 展开更多
关键词 Markov decision process (MDP) fuzzy q learning dual-aircraft coordination path planning passive detection.
在线阅读 下载PDF
基于Q-learning的搜救机器人自主路径规划 被引量:2
2
作者 褚晶 邓旭辉 岳颀 《南京航空航天大学学报》 CAS CSCD 北大核心 2024年第2期364-374,共11页
当人为和自然灾害突然发生时,在极端情况下快速部署搜救机器人是拯救生命的关键。为了完成救援任务,搜救机器人需要在连续动态未知环境中,自主进行路径规划以到达救援目标位置。本文提出了一种搜救机器人传感器配置方案,应用基于Q⁃tabl... 当人为和自然灾害突然发生时,在极端情况下快速部署搜救机器人是拯救生命的关键。为了完成救援任务,搜救机器人需要在连续动态未知环境中,自主进行路径规划以到达救援目标位置。本文提出了一种搜救机器人传感器配置方案,应用基于Q⁃table和神经网络的Q⁃learning算法,实现搜救机器人的自主控制,解决了在未知环境中如何避开静态和动态障碍物的路径规划问题。如何平衡训练过程的探索与利用是强化学习的挑战之一,本文在贪婪搜索和Boltzmann搜索的基础上,提出了对搜索策略进行动态选择的混合优化方法。并用MATLAB进行了仿真,结果表明所提出的方法是可行有效的。采用该传感器配置的搜救机器人能够有效地响应环境变化,到达目标位置的同时成功避开静态、动态障碍物。 展开更多
关键词 搜救机器人 路径规划 传感器配置 qlearning 神经网络
在线阅读 下载PDF
基于Q⁃learning算法的无人机自组网AODV稳定路由改进方法 被引量:6
3
作者 李海滨 唐晓刚 +3 位作者 常继红 吴署光 周尚辉 王梦阳 《现代电子技术》 2023年第6期91-97,共7页
针对小型无人机集群组网中节点高速移动、网络拓扑变化剧烈导致的网络性能下降问题,在无线自组网按需平面距离向量(AODV)协议基础上,提出一种具有链路稳定度意识的无人机自组网路由协议(LN⁃AODV)。首先,通过加权计算链路维持时间和邻居... 针对小型无人机集群组网中节点高速移动、网络拓扑变化剧烈导致的网络性能下降问题,在无线自组网按需平面距离向量(AODV)协议基础上,提出一种具有链路稳定度意识的无人机自组网路由协议(LN⁃AODV)。首先,通过加权计算链路维持时间和邻居节点变化度,从而选择稳定路径,解决拓扑结构动态变化条件下数据传输延迟和数据成功投递率下降的难题;然后,结合Q⁃learning算法自适应调整Hello消息的发送周期,使协议能够通过感知拓扑变化程度调整路由控制开销和拓扑感知灵敏度。仿真结果表明,相比于AODV,所提方法在端到端延迟、分组投递率、路由开销和数据吞吐量4个网络性能指标上分别提升7.56%,2.58%,17.39%,2.62%,可适应于节点高速运动的无人机自组网,对于无线自组网理论研究及拓展应用具有重要的借鉴意义。 展开更多
关键词 无人机自组网 路由协议 AODV qlearning 稳定路径 拓扑感知 Hello报文 邻居节点
在线阅读 下载PDF
基于改进Q⁃learning算法的输电线路拟声驱鸟策略研究 被引量:3
4
作者 柯杰龙 张羽 +2 位作者 朱朋辉 黄炽坤 吴可廷 《南京信息工程大学学报(自然科学版)》 CAS 北大核心 2022年第5期579-586,共8页
日益频繁的鸟类活动给输电线路的安全运行带来了极大威胁,而现有拟声驱鸟装置由于缺乏智能性,无法长期有效驱鸟.为了解决上述问题,本文提出基于改进Q⁃learning算法的拟声驱鸟策略.首先,为了评价各音频的驱鸟效果,结合模糊理论,将鸟类听... 日益频繁的鸟类活动给输电线路的安全运行带来了极大威胁,而现有拟声驱鸟装置由于缺乏智能性,无法长期有效驱鸟.为了解决上述问题,本文提出基于改进Q⁃learning算法的拟声驱鸟策略.首先,为了评价各音频的驱鸟效果,结合模糊理论,将鸟类听到音频后的动作行为量化为不同鸟类反应类型.然后,设计单一音频驱鸟实验,统计各音频驱鸟效果数据,得到各音频的初始权重值,为拟声驱鸟装置的音频选择提供实验依据.为了使计算所得的音频权重值更符合实际实验情况,对CRITIC(Criteria Impor⁃tance Though Intercrieria Correlation)方法的权重计算公式进行了优化.最后,使用实验所得音频权重值对Q⁃learning算法进行改进,并设计与其他拟声驱鸟策略的对比实验,实验数据显示改进Q⁃learning算法的拟声驱鸟策略驱鸟效果优于其他三种驱鸟策略,收敛速度快,驱鸟效果稳定,能够降低鸟类的适应性. 展开更多
关键词 拟声音频 驱鸟效果 模糊理论 qlearning算法 驱鸟策略
在线阅读 下载PDF
双RIS辅助的认知UAV协作NOMA安全中断性能
5
作者 李世豪 李震 +2 位作者 薛鹏 李美玲 李世兴 《火力与指挥控制》 北大核心 2025年第8期106-113,共8页
针对空地一体化网络(air-ground integrated networks,AGIN)中快速动态变化的移动用户导致信道过时及难以估计等问题,构建双RIS辅助的认知UAV协作NOMA传输系统。提出基于深度学习的认知UAV中继选择策略,分析双瑞利、瑞利与双瑞利混合信... 针对空地一体化网络(air-ground integrated networks,AGIN)中快速动态变化的移动用户导致信道过时及难以估计等问题,构建双RIS辅助的认知UAV协作NOMA传输系统。提出基于深度学习的认知UAV中继选择策略,分析双瑞利、瑞利与双瑞利混合信道下主用户的安全中断性能。仿真结果表明,基于深度学习中继选择策略相较于随机中继选择能够实现更高的系统安全性能。 展开更多
关键词 空地一体化网络 认知非正交多址接入 深度学习 中继选择 q learning
在线阅读 下载PDF
Collaborative multi-agent reinforcement learning based on experience propagation 被引量:5
6
作者 Min Fang Frans C.A. Groen 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2013年第4期683-689,共7页
For multi-agent reinforcement learning in Markov games, knowledge extraction and sharing are key research problems. State list extracting means to calculate the optimal shared state path from state trajectories with c... For multi-agent reinforcement learning in Markov games, knowledge extraction and sharing are key research problems. State list extracting means to calculate the optimal shared state path from state trajectories with cycles. A state list extracting algorithm checks cyclic state lists of a current state in the state trajectory, condensing the optimal action set of the current state. By reinforcing the optimal action selected, the action policy of cyclic states is optimized gradually. The state list extracting is repeatedly learned and used as the experience knowledge which is shared by teams. Agents speed up the rate of convergence by experience sharing. Competition games of preys and predators are used for the experiments. The results of experiments prove that the proposed algorithms overcome the lack of experience in the initial stage, speed up learning and improve the performance. 展开更多
关键词 MULTI-AGENT q learning state list extracting experience sharing.
在线阅读 下载PDF
基于强化学习的FANET自适应MAC协议
7
作者 闫涛 赵一帆 +2 位作者 高明虎 陈虎 唐嘉宁 《计算机工程与设计》 北大核心 2024年第9期2613-2619,共7页
针对预设的单一媒体接入控制(MAC)协议难以满足飞行自组织网络(FANET)多样化业务需求的问题,提出一种基于Q Learning的FANET自适应MAC协议(FQL-AMAC)。使用两种基准协议联合控制,根据当前网络条件自动选择并切换至服务质量(QoS)显著的MA... 针对预设的单一媒体接入控制(MAC)协议难以满足飞行自组织网络(FANET)多样化业务需求的问题,提出一种基于Q Learning的FANET自适应MAC协议(FQL-AMAC)。使用两种基准协议联合控制,根据当前网络条件自动选择并切换至服务质量(QoS)显著的MAC协议。优化单个网络性能指标实现QoS局部最优,采用熵值法融合吞吐量、延迟并提出综合性能指标构建奖励函数,以趋近QoS全局最优。实验结果表明,FQL-AMAC能有效选择最佳协议运行,吞吐量、延迟和综合性能表现优于现有协议。 展开更多
关键词 飞行自组织网络 媒体接入控制 多样化业务 自适应选择 q learning 熵值法 综合性能
在线阅读 下载PDF
电力市场智能模拟中代理决策模块的实现 被引量:14
8
作者 陈皓勇 杨彦 +3 位作者 张尧 王野平 荆朝霞 陈青松 《电力系统自动化》 EI CSCD 北大核心 2008年第20期22-26,共5页
在日前交易方式下,发电厂商为了追求长期最大利润,竞价策略显得尤其重要。通常,发电厂商运用的策略过于复杂,难以用传统的博弈论方法来建模。人工智能中强化学习Q-learning算法是一种自适应的学习方法,使代理能够通过不断与环境进行交... 在日前交易方式下,发电厂商为了追求长期最大利润,竞价策略显得尤其重要。通常,发电厂商运用的策略过于复杂,难以用传统的博弈论方法来建模。人工智能中强化学习Q-learning算法是一种自适应的学习方法,使代理能够通过不断与环境进行交互所得到的经验进行学习,适合在电力市场智能模拟中运用。文中在开放源代码的电力市场智能模拟平台AMES上,增加了发电厂商代理基于Q-learning的竞价决策程序模块,并在5节点测试系统上进行模拟。实验结果表明,运用基于Q-learning算法竞价决策使代理可以较好地模拟发电厂商的经济特性,且在相同条件下表现出比AMES原有的VRElearning算法更强的探索能力。 展开更多
关键词 智能代理模拟 竞价策略 电力拍卖市场 qlearning算法 VRE learning算法
在线阅读 下载PDF
基于OPNET的定向天线自组织网邻居发现算法仿真 被引量:3
9
作者 李默 赵亮 《系统仿真学报》 CAS CSCD 北大核心 2018年第5期1707-1714,共8页
研究了定向天线自组织网的邻居发现问题,提出了一种基于Q-Learning的邻居发现算法,并利用大型网络仿真软件OPNET对定向天线自组织网进行建模仿真。基于Q-Learning的邻居发现算法在不知道任何邻居节点先验信息的情况下,通过Q-Learning机... 研究了定向天线自组织网的邻居发现问题,提出了一种基于Q-Learning的邻居发现算法,并利用大型网络仿真软件OPNET对定向天线自组织网进行建模仿真。基于Q-Learning的邻居发现算法在不知道任何邻居节点先验信息的情况下,通过Q-Learning机制确定每次邻居扫描的收/发模式,并根据当次扫描结果确定回报值,学习扫描中的经验,能够达到提高邻居发现效率的目的。利用三级建模机制搭建了基于OPNET的仿真模型,并利用天线模型编辑器对定向天线进行了建模。基于OPNET的仿真结果表明,提出的算法相比于基于扫描的算法能够提高邻居发现的效率。 展开更多
关键词 OPNET 定向天线 自组织网 邻居发现 qlearning
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部