非侵入式负荷监测(NILM)通过分析电力总线数据估计单个负荷的功率波形,是电力系统能耗管理的关键技术之一。随着用户对设备能耗管理需求的增加,NILM的准确性成为研究的重点之一,但它容易受到功率类型、功率水平和负荷变化的影响。单一N...非侵入式负荷监测(NILM)通过分析电力总线数据估计单个负荷的功率波形,是电力系统能耗管理的关键技术之一。随着用户对设备能耗管理需求的增加,NILM的准确性成为研究的重点之一,但它容易受到功率类型、功率水平和负荷变化的影响。单一NILM模型面对不同类型的负荷时准确性差异较大,使用单一方法难以在各类负荷上均取得理想效果。因此,提出一种基于堆叠集成学习的非侵入式负荷高精度辨识方法 AMEL(Aggregation Method based on Ensemble Learning)。首先,选择在各种类型的负荷中表现最优的几种方法构建NILM模型库;其次,建立一个基于多层感知机(MLP)的NILM模型偏好框架,以实现对不同负荷的高精度监测。在UK-DALE数据集上的实验结果表明,与典型的NILM方法相比,所提方法的平均绝对误差(MAE)平均降低了35.6%,F1、召回率和马修斯相关系数(MCC)分别平均提升了33.5%、30.6%和32.1%。此外,通过比较现有的堆叠集成方法和各类设备的辨识波形,验证了所提方法的有效性。展开更多
分析目前的短文本分类算法没有综合考虑文本中隐含的依赖关系和局部关键信息这一问题,提出基于自注意力机制(self-attention mechanism)的堆叠双向长短时记忆网络(stack bidirectional long short term memory)模型(简称Att-BLSTMs)。利...分析目前的短文本分类算法没有综合考虑文本中隐含的依赖关系和局部关键信息这一问题,提出基于自注意力机制(self-attention mechanism)的堆叠双向长短时记忆网络(stack bidirectional long short term memory)模型(简称Att-BLSTMs)。利用stack Bi-LSTMs捕获上下文隐藏依赖关系,优化短文本特征稀疏的问题;利用自注意力机制加大对短文本中局部关键信息的注意力,优化文本表示。在公开AG-news网页新闻的语料和DBpedia分类数据集中,进行丰富的对比实验。实验结果表明,该模型将文本中隐含依赖关系与局部关键信息综合考虑后,有效提高了短文本分类的准确性。展开更多
文摘非侵入式负荷监测(NILM)通过分析电力总线数据估计单个负荷的功率波形,是电力系统能耗管理的关键技术之一。随着用户对设备能耗管理需求的增加,NILM的准确性成为研究的重点之一,但它容易受到功率类型、功率水平和负荷变化的影响。单一NILM模型面对不同类型的负荷时准确性差异较大,使用单一方法难以在各类负荷上均取得理想效果。因此,提出一种基于堆叠集成学习的非侵入式负荷高精度辨识方法 AMEL(Aggregation Method based on Ensemble Learning)。首先,选择在各种类型的负荷中表现最优的几种方法构建NILM模型库;其次,建立一个基于多层感知机(MLP)的NILM模型偏好框架,以实现对不同负荷的高精度监测。在UK-DALE数据集上的实验结果表明,与典型的NILM方法相比,所提方法的平均绝对误差(MAE)平均降低了35.6%,F1、召回率和马修斯相关系数(MCC)分别平均提升了33.5%、30.6%和32.1%。此外,通过比较现有的堆叠集成方法和各类设备的辨识波形,验证了所提方法的有效性。
文摘风速变化的间歇性和波动性给风功率的精准预测带来极大挑战,充分挖掘风电功率与风速等关键因素的内在规律是提高风电功率预测精度的有效途径。提出一种结合时间模式注意力(time pattern attention,TPA)机制的多层堆叠双向长短期记忆网络的超短期风电功率预测方法。首先,利用基于密度的含噪声空间聚类方法(den⁃sity based spatial clustering with noise,DBSCAN)和线性回归算法进行风功率数据集的异常值检测,利用k最邻近(k⁃nearest neighbor,KNN)插值法重构异常点数据;其次,综合考虑风电功率与各气象特征的内在关联性,在MBLSTM网络中引入TPA机制合理分配时间步长权重,捕捉风电功率时间序列潜在逻辑规律;最后,利用实验仿真数据进行分析验证本文方法的有效性,该方法能够充分挖掘风功率与风速影响因素的关系,从而提高其预测精度。
文摘分析目前的短文本分类算法没有综合考虑文本中隐含的依赖关系和局部关键信息这一问题,提出基于自注意力机制(self-attention mechanism)的堆叠双向长短时记忆网络(stack bidirectional long short term memory)模型(简称Att-BLSTMs)。利用stack Bi-LSTMs捕获上下文隐藏依赖关系,优化短文本特征稀疏的问题;利用自注意力机制加大对短文本中局部关键信息的注意力,优化文本表示。在公开AG-news网页新闻的语料和DBpedia分类数据集中,进行丰富的对比实验。实验结果表明,该模型将文本中隐含依赖关系与局部关键信息综合考虑后,有效提高了短文本分类的准确性。