在室内可见光通信中符号间干扰和噪声会严重影响系统性能,K均值(K-means)均衡方法可以抑制光无线信道的影响,但其复杂度较高,且在聚类边界处易出现误判。提出了改进聚类中心点的K-means(Improved Center K-means,IC-Kmeans)算法,通过随...在室内可见光通信中符号间干扰和噪声会严重影响系统性能,K均值(K-means)均衡方法可以抑制光无线信道的影响,但其复杂度较高,且在聚类边界处易出现误判。提出了改进聚类中心点的K-means(Improved Center K-means,IC-Kmeans)算法,通过随机生成足够长的训练序列,然后将训练序列每一簇的均值作为K-means聚类中心,避免了传统K-means反复迭代寻找聚类中心。进一步,提出了基于神经网络的IC-Kmeans(Neural Network Based IC-Kmeans,NNIC-Kmeans)算法,使用反向传播神经网络将接收端二维数据映射至三维空间,以增加不同簇之间混合数据的距离,提高了分类准确性。蒙特卡罗误码率仿真表明,IC-Kmeans均衡和传统K-means算法的误码率性能相当,但可以显著降低复杂度,特别是在信噪比较小时。同时,在室内多径信道模型下,与IC-Kmeans和传统Kmeans均衡相比,NNIC-Kmeans均衡的光正交频分复用系统误码率性能最好。展开更多
针对深度确定性策略梯度(deep deterministic policy gradient,DDPG)算法在一些大状态空间任务中存在学习效果不佳及波动较大等问题,提出一种基于渐近式k-means聚类算法的多行动者深度确定性策略梯度(multi-actor deep deterministic po...针对深度确定性策略梯度(deep deterministic policy gradient,DDPG)算法在一些大状态空间任务中存在学习效果不佳及波动较大等问题,提出一种基于渐近式k-means聚类算法的多行动者深度确定性策略梯度(multi-actor deep deterministic policy gradient based on progressive k-means clustering,MDDPG-PK-Means)算法.在训练过程中,对每一时间步下的状态进行动作选择时,根据k-means算法判别结果辅佐行动者网络的决策,同时随训练时间步的增加,逐渐增加k-means算法类簇中心的个数.将MDDPG-PK-Means算法应用于MuJoCo仿真平台上,实验结果表明,与DDPG等算法相比,MDDPG-PK-Means算法在大多数连续任务中都具有更好的效果.展开更多
文摘在室内可见光通信中符号间干扰和噪声会严重影响系统性能,K均值(K-means)均衡方法可以抑制光无线信道的影响,但其复杂度较高,且在聚类边界处易出现误判。提出了改进聚类中心点的K-means(Improved Center K-means,IC-Kmeans)算法,通过随机生成足够长的训练序列,然后将训练序列每一簇的均值作为K-means聚类中心,避免了传统K-means反复迭代寻找聚类中心。进一步,提出了基于神经网络的IC-Kmeans(Neural Network Based IC-Kmeans,NNIC-Kmeans)算法,使用反向传播神经网络将接收端二维数据映射至三维空间,以增加不同簇之间混合数据的距离,提高了分类准确性。蒙特卡罗误码率仿真表明,IC-Kmeans均衡和传统K-means算法的误码率性能相当,但可以显著降低复杂度,特别是在信噪比较小时。同时,在室内多径信道模型下,与IC-Kmeans和传统Kmeans均衡相比,NNIC-Kmeans均衡的光正交频分复用系统误码率性能最好。
文摘在高压并联电抗器声纹信号监测系统中,长时海量无标签声纹的高维非平稳性导致特征提取困难、无监督聚类适应性差。由此提出了一种基于深度自适应K-means++算法(deep adaptive K-means++clustering algorithm,DAKCA)的750 kV电抗器声纹聚类方法。首先通过采用两阶段无监督策略微调的改进堆叠稀疏自编码器(stacked sparse autoencoder,SSAE),对快速傅里叶变换后的归一化频域数据提取电抗器原始声纹32维深度特征。进一步提出了依据最近邻聚类有效性指标(clustering validation index based on nearest neighbors,CVNN)的自适应K-means++聚类算法,构建了能自适应确定最优聚类个数的电抗器声纹聚类模型。最后通过西北地区某750 kV电抗器实测声纹数据集进行了验证。结果表明,DAKCA算法对无标签声纹数据在不同样本均衡程度下能够稳定提取32维深度特征,并实现最优聚类,为直接高效利用电抗器无标签声纹数据提供了参考。
文摘针对深度确定性策略梯度(deep deterministic policy gradient,DDPG)算法在一些大状态空间任务中存在学习效果不佳及波动较大等问题,提出一种基于渐近式k-means聚类算法的多行动者深度确定性策略梯度(multi-actor deep deterministic policy gradient based on progressive k-means clustering,MDDPG-PK-Means)算法.在训练过程中,对每一时间步下的状态进行动作选择时,根据k-means算法判别结果辅佐行动者网络的决策,同时随训练时间步的增加,逐渐增加k-means算法类簇中心的个数.将MDDPG-PK-Means算法应用于MuJoCo仿真平台上,实验结果表明,与DDPG等算法相比,MDDPG-PK-Means算法在大多数连续任务中都具有更好的效果.