期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
线性化逐层优化MLP训练算法
1
作者 周志杰 胡光锐 李群 《上海交通大学学报》 EI CAS CSCD 北大核心 1999年第1期15-18,共4页
提出了线性化逐层优化MLP训练算法(LOLL).LOLL采用循环方式逐层对MLP的连接权值进行训练.训练连接权值时用一阶泰勒级数表示神经元的非线性激活函数以实现神经网络的线性化,使MLP的训练问题转化为一个线性问题.... 提出了线性化逐层优化MLP训练算法(LOLL).LOLL采用循环方式逐层对MLP的连接权值进行训练.训练连接权值时用一阶泰勒级数表示神经元的非线性激活函数以实现神经网络的线性化,使MLP的训练问题转化为一个线性问题.同时,为保证神经网络线性化条件不被破坏,LOLL通过在神经网络的误差函数中计入部分线性化误差限制参数的改变幅度,对神经网络的误差函数进行了修正.实验结果显示,LOLL训练算法的速度比传统的BP算法快4倍,用它构成的语音信号非线性预测器有较好的预测性能. 展开更多
关键词 语音信号处理 多层线性感知器 训练算法 MLP
在线阅读 下载PDF
基于EWC算法的DDoS攻击检测模型参数更新方法 被引量:5
2
作者 张斌 周奕涛 《电子与信息学报》 EI CSCD 北大核心 2021年第10期2928-2935,共8页
针对现有基于多层线性感知器(Multi-Layer Perceptron,MLP)神经网络的DDoS攻击检测模型参数更新方法(MLP-UD)易遗忘模型训练原参数所用的DDoS攻击数据集(原数据集)知识、时间空间开销大的问题,该文提出一种基于弹性权重保持(Elastic Wei... 针对现有基于多层线性感知器(Multi-Layer Perceptron,MLP)神经网络的DDoS攻击检测模型参数更新方法(MLP-UD)易遗忘模型训练原参数所用的DDoS攻击数据集(原数据集)知识、时间空间开销大的问题,该文提出一种基于弹性权重保持(Elastic Weight Consolidation,EWC)算法的模型参数更新方法(EWC-UD)。首先,使用K-Means算法计算原数据集聚类簇中心点作为费雪信息矩阵计算样本,有效提升计算样本均匀度与聚类覆盖率,大幅减少费雪信息矩阵计算量,提升参数更新效率。其次,基于费雪信息矩阵,对模型参数更新过程中的损失函数增加2次惩罚项,限制MLP神经网络中重要权重与偏置参数的变化,在保持对原数据集检测性能的基础上,提升对新DDoS攻击数据集的检测准确率。然后基于概率论对EWC-UD方法进行正确性证明,并分析时间复杂度。实验表明,针对构建的测试数据集,EWC-UD方法相较于MLP-UD仅训练新DDoS攻击数据集的更新方法,检测准确率提升37.05%,相较于MLP-UD同时训练新旧DDoS攻击数据集的更新方法,时间开销下降80.65%,内存开销降低33.18%。 展开更多
关键词 分布式拒绝服务 模型参数更新 弹性权重保持算法 多层线性感知器
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部