针对复杂电磁环境下雷达复合干扰识别困难和网络模型复杂度高的问题,将多标签分类与改进的ShuffleNet V2相结合,提出一种轻量化的多标签ShuffleNet(multi-labeling ShuffleNet, ML-SNet)雷达复合干扰识别算法。首先,使用轻量化的Shuffle...针对复杂电磁环境下雷达复合干扰识别困难和网络模型复杂度高的问题,将多标签分类与改进的ShuffleNet V2相结合,提出一种轻量化的多标签ShuffleNet(multi-labeling ShuffleNet, ML-SNet)雷达复合干扰识别算法。首先,使用轻量化的ShuffleNet V2作为主干网络,引入SimAM(similarity-based attention module)注意力机制,提高网络特征提取能力。其次,使用漏斗激活线性整流函数(funnel activation rectified linear unit, FReLU)代替线性整流单元(rectified linear unit, ReLU)激活函数,减少特征图的信息损失。最后,使用多标签分类算法对网络输出进行分类,得到识别结果。实验结果表明,在干噪比范围为-10~10 dB的情况下,所提算法对15类雷达复合干扰的平均识别率为97.9%。与其他网络相比,所提算法具有较低的计算复杂度,而且识别性能表现最佳。展开更多
雷达协同抗干扰决策过程中奖励存在稀疏性,导致强化学习算法难以收敛,协同训练困难。为解决该问题,提出一种分层多智能体深度确定性策略梯度(hierarchical multi-agent deep deterministic policy gradient,H-MADDPG)算法,通过稀疏奖励...雷达协同抗干扰决策过程中奖励存在稀疏性,导致强化学习算法难以收敛,协同训练困难。为解决该问题,提出一种分层多智能体深度确定性策略梯度(hierarchical multi-agent deep deterministic policy gradient,H-MADDPG)算法,通过稀疏奖励的累积提升训练过程的收敛性能,引入哈佛结构思想分别存储多智能体的训练经验以消除经验回放混乱问题。在2部和4部雷达组网仿真中,在某种强干扰条件下,雷达探测成功率比多智能体深度确定性梯度(multi-agent deep deterministic policy gradient,MADDPG)算法分别提高了15%和30%。展开更多
针对主瓣干扰(main-lobe jamming,MLJ)在空域与有用信号(signal of interest,SOI)高度相关而难以被有效抑制的问题,基于跳变编码波形的抗MLJ系统通过对波形进行编码调制,接收端据此重构接收信号,利用码-空映射等效改变SOI空域信道,实现...针对主瓣干扰(main-lobe jamming,MLJ)在空域与有用信号(signal of interest,SOI)高度相关而难以被有效抑制的问题,基于跳变编码波形的抗MLJ系统通过对波形进行编码调制,接收端据此重构接收信号,利用码-空映射等效改变SOI空域信道,实现SOI与干扰信号在空域的分辨。但理论分析发现,信号带宽的增大将掩盖编码特征并使该方法失效。为此,利用多抽头系统的时-频映射特质,通过多抽头结构设计降低带宽掩盖,重新凸显编码特征。仿真结果显示,所提方法可在10 MHz的全带宽内,使干扰对消比大于20 dB,SOI对消比小于3 dB,具有较好的抗主瓣非零带宽干扰性能。展开更多
文摘针对复杂电磁环境下雷达复合干扰识别困难和网络模型复杂度高的问题,将多标签分类与改进的ShuffleNet V2相结合,提出一种轻量化的多标签ShuffleNet(multi-labeling ShuffleNet, ML-SNet)雷达复合干扰识别算法。首先,使用轻量化的ShuffleNet V2作为主干网络,引入SimAM(similarity-based attention module)注意力机制,提高网络特征提取能力。其次,使用漏斗激活线性整流函数(funnel activation rectified linear unit, FReLU)代替线性整流单元(rectified linear unit, ReLU)激活函数,减少特征图的信息损失。最后,使用多标签分类算法对网络输出进行分类,得到识别结果。实验结果表明,在干噪比范围为-10~10 dB的情况下,所提算法对15类雷达复合干扰的平均识别率为97.9%。与其他网络相比,所提算法具有较低的计算复杂度,而且识别性能表现最佳。
文摘雷达协同抗干扰决策过程中奖励存在稀疏性,导致强化学习算法难以收敛,协同训练困难。为解决该问题,提出一种分层多智能体深度确定性策略梯度(hierarchical multi-agent deep deterministic policy gradient,H-MADDPG)算法,通过稀疏奖励的累积提升训练过程的收敛性能,引入哈佛结构思想分别存储多智能体的训练经验以消除经验回放混乱问题。在2部和4部雷达组网仿真中,在某种强干扰条件下,雷达探测成功率比多智能体深度确定性梯度(multi-agent deep deterministic policy gradient,MADDPG)算法分别提高了15%和30%。