信道状态信息(channel state information,CSI)的精确获取是大规模天线发挥效能的关键。在现有的通信系统中,上下行链路互易性不理想时,基于码本进行下行链路的CSI反馈。随着天线规模的增大,码本CSI反馈所需要的开销也越来越大。给出了...信道状态信息(channel state information,CSI)的精确获取是大规模天线发挥效能的关键。在现有的通信系统中,上下行链路互易性不理想时,基于码本进行下行链路的CSI反馈。随着天线规模的增大,码本CSI反馈所需要的开销也越来越大。给出了基于人工智能(artificial intelligence,AI)的CSI反馈压缩方法,分析了基于AI的CSI反馈的标准化影响、通信流程与面临的挑战,提供了评估结果。评估结果表明,相对于基于频域基向量压缩的码本CSI反馈,基于AI的CSI反馈在相同的反馈精度下可以显著地降低反馈开销。展开更多
为应对大规模多输入多输出(Multiple⁃input multiple⁃output,MIMO)系统中信道状态信息(Channel state information,CSI)反馈开销的日益增长,基于深度学习的CSI反馈网络(如Transformer网络)受到了广泛的关注,是一种非常有应用前景的智能...为应对大规模多输入多输出(Multiple⁃input multiple⁃output,MIMO)系统中信道状态信息(Channel state information,CSI)反馈开销的日益增长,基于深度学习的CSI反馈网络(如Transformer网络)受到了广泛的关注,是一种非常有应用前景的智能传输技术。为此,本文提出了一种基于数据聚类的CSI反馈Transformer网络的简化方法,采用基于聚类的近似矩阵乘法(Approximate matrix multiplication,AMM)技术,以降低反馈过程中Transformer网络的计算复杂度。本文主要对Transformer网络的全连接层计算(等效为矩阵乘法),应用乘积量化(Product quantization,PQ)和MADDNESS等简化方法,分析了它们对计算复杂度和系统性能的影响,并针对神经网络数据的特点进行了算法优化。仿真结果表明,在适当的参数调整下,基于MADDNESS方法的CSI反馈网络性能接近精确矩阵乘法方法,同时可大幅降低计算复杂度。展开更多
在资源受限的水声网络中,使用软频率复用技术和自适应资源分配技术可以提高网络容量和能量效率。然而,水声信道的长传播时延和时变特性导致用于自适应技术的反馈信道状态信息(Channel State Information, CSI)是时变且过时的。非理想的...在资源受限的水声网络中,使用软频率复用技术和自适应资源分配技术可以提高网络容量和能量效率。然而,水声信道的长传播时延和时变特性导致用于自适应技术的反馈信道状态信息(Channel State Information, CSI)是时变且过时的。非理想的反馈CSI会降低自适应系统的性能。针对该问题,提出了一种基于多智能体深度Q网络的资源分配(Multi-agent Deep Q Network Based Resource Allocation, MADQN-RA)方法。该方法将水声软频率复用网络视为多智能体系统,并使用过时的反馈CSI序列作为系统状态。通过建立有效的奖励表达式,智能体可以跟踪时变时延水声信道的变化特性并做出相应的资源分配决策。为了进一步提高智能体的决策准确度,同时避免状态空间维度增大时的部分学习成本,结合动态状态长度方法改进了MADQN-RA。仿真结果表明,所提方法实现的系统性能优于基于其他学习的方法和基于信道预测的方法,且更接近理论最优值。展开更多
文摘信道状态信息(channel state information,CSI)的精确获取是大规模天线发挥效能的关键。在现有的通信系统中,上下行链路互易性不理想时,基于码本进行下行链路的CSI反馈。随着天线规模的增大,码本CSI反馈所需要的开销也越来越大。给出了基于人工智能(artificial intelligence,AI)的CSI反馈压缩方法,分析了基于AI的CSI反馈的标准化影响、通信流程与面临的挑战,提供了评估结果。评估结果表明,相对于基于频域基向量压缩的码本CSI反馈,基于AI的CSI反馈在相同的反馈精度下可以显著地降低反馈开销。
文摘在资源受限的水声网络中,使用软频率复用技术和自适应资源分配技术可以提高网络容量和能量效率。然而,水声信道的长传播时延和时变特性导致用于自适应技术的反馈信道状态信息(Channel State Information, CSI)是时变且过时的。非理想的反馈CSI会降低自适应系统的性能。针对该问题,提出了一种基于多智能体深度Q网络的资源分配(Multi-agent Deep Q Network Based Resource Allocation, MADQN-RA)方法。该方法将水声软频率复用网络视为多智能体系统,并使用过时的反馈CSI序列作为系统状态。通过建立有效的奖励表达式,智能体可以跟踪时变时延水声信道的变化特性并做出相应的资源分配决策。为了进一步提高智能体的决策准确度,同时避免状态空间维度增大时的部分学习成本,结合动态状态长度方法改进了MADQN-RA。仿真结果表明,所提方法实现的系统性能优于基于其他学习的方法和基于信道预测的方法,且更接近理论最优值。