针对利用海量数据构建分类模型时训练数据规模大、训练时间长且碳排放量大的问题,提出面向低能耗高性能的分类器两阶段数据选择方法TSDS(Two-Stage Data Selection)。首先,通过修正余弦相似度确定聚类中心,并将样本数据进行基于不相似...针对利用海量数据构建分类模型时训练数据规模大、训练时间长且碳排放量大的问题,提出面向低能耗高性能的分类器两阶段数据选择方法TSDS(Two-Stage Data Selection)。首先,通过修正余弦相似度确定聚类中心,并将样本数据进行基于不相似点的分裂层次聚类;其次,对聚类结果按数据分布自适应抽样以组成高质量的子样本集;最后,利用子样本集在分类模型上训练,在加速训练过程的同时提升模型精度。在Spambase、Bupa和Phoneme等6个数据集上构建支持向量机(SVM)和多层感知机(MLP)分类模型,验证TSDS的性能。实验结果表明在样本数据压缩比达到85.00%的情况下,TSDS能将分类模型准确率提升3~10个百分点,同时加速模型训练,使训练SVM分类器的能耗平均降低93.76%,训练MLP分类器的能耗平均降低75.41%。可见,TSDS在大数据场景的分类任务上既能缩短训练时间和减少能耗,又能提升分类器性能,从而助力实现“双碳”目标。展开更多
针对现有电动汽车电池状态估计方法存在运算效率低和估算准确率低的问题,提出一种模型以估算电动汽车电池荷电状态(state of charge,SOC)和健康状态(state of health,SOH)。采用堆叠降噪自编码器(stacked denosing auto encoder,SDAE)...针对现有电动汽车电池状态估计方法存在运算效率低和估算准确率低的问题,提出一种模型以估算电动汽车电池荷电状态(state of charge,SOC)和健康状态(state of health,SOH)。采用堆叠降噪自编码器(stacked denosing auto encoder,SDAE)清洗电压、电流和温度数据中的异常数据和空缺数据,减小对估算精度的影响。引入动态通道剪枝(dynamical channel pruning,DCP)技术对Informer模型进行稀疏化处理,提高剪枝后模型的性能和稳定性。将清洗过的数据输入DCPInformer模型实现SOC和SOH的精确估计。实验结果表明,所提出的SDAE-DCPInformer模型估计SOC的平均绝对误差和均方根误差分别达到0.25%和0.38%,估计SOH的平均绝对误差和均方根误差分别达到了0.51%和0.64%。与传统Transformer等模型相比,所提模型预测SOC和SOH的速度更快,估算准确度有效提升,拥有的更好稳定性和泛化性。展开更多
文摘针对利用海量数据构建分类模型时训练数据规模大、训练时间长且碳排放量大的问题,提出面向低能耗高性能的分类器两阶段数据选择方法TSDS(Two-Stage Data Selection)。首先,通过修正余弦相似度确定聚类中心,并将样本数据进行基于不相似点的分裂层次聚类;其次,对聚类结果按数据分布自适应抽样以组成高质量的子样本集;最后,利用子样本集在分类模型上训练,在加速训练过程的同时提升模型精度。在Spambase、Bupa和Phoneme等6个数据集上构建支持向量机(SVM)和多层感知机(MLP)分类模型,验证TSDS的性能。实验结果表明在样本数据压缩比达到85.00%的情况下,TSDS能将分类模型准确率提升3~10个百分点,同时加速模型训练,使训练SVM分类器的能耗平均降低93.76%,训练MLP分类器的能耗平均降低75.41%。可见,TSDS在大数据场景的分类任务上既能缩短训练时间和减少能耗,又能提升分类器性能,从而助力实现“双碳”目标。
文摘针对现有电动汽车电池状态估计方法存在运算效率低和估算准确率低的问题,提出一种模型以估算电动汽车电池荷电状态(state of charge,SOC)和健康状态(state of health,SOH)。采用堆叠降噪自编码器(stacked denosing auto encoder,SDAE)清洗电压、电流和温度数据中的异常数据和空缺数据,减小对估算精度的影响。引入动态通道剪枝(dynamical channel pruning,DCP)技术对Informer模型进行稀疏化处理,提高剪枝后模型的性能和稳定性。将清洗过的数据输入DCPInformer模型实现SOC和SOH的精确估计。实验结果表明,所提出的SDAE-DCPInformer模型估计SOC的平均绝对误差和均方根误差分别达到0.25%和0.38%,估计SOH的平均绝对误差和均方根误差分别达到了0.51%和0.64%。与传统Transformer等模型相比,所提模型预测SOC和SOH的速度更快,估算准确度有效提升,拥有的更好稳定性和泛化性。