构造一种适用于反向传播(backpropagation,BP)神经网络的新型激活函数Lfun(logarithmic series function),并使用基于该函数的BP神经网络进行机床能耗状态的预测。首先,分析Sigmoid系列和ReLU系列激活函数的特点和缺陷,结合对数函数,构...构造一种适用于反向传播(backpropagation,BP)神经网络的新型激活函数Lfun(logarithmic series function),并使用基于该函数的BP神经网络进行机床能耗状态的预测。首先,分析Sigmoid系列和ReLU系列激活函数的特点和缺陷,结合对数函数,构造了一种非线性分段含参数激活函数。该函数可导且光滑、导数形式简单、单调递增、输出均值为零,且通过可变参数使函数形式更灵活;其次,通过数值仿真实验在公共数据集上将Lfun函数与Sigmoid、ReLU、tanh、Leaky_ReLU和ELU函数的性能进行对比;最后,使用基于Lfun函数的BP神经网络进行机床能耗状态的预测。实验结果表明,使用Lfun函数的BP神经网络相较于使用其他几种常用激活函数的网络具有更好的性能。展开更多
支持向量机中对核函数的要求为对称的半正定矩阵.来自于神经网络的sigm o id核函数在其参数满足一定条件时才成为半正定矩阵,但是这种核函数在SVM中却有很多成功的应用.本文将sigm o id核函数与模糊逻辑相结合并使其模糊化,从而简化了SV...支持向量机中对核函数的要求为对称的半正定矩阵.来自于神经网络的sigm o id核函数在其参数满足一定条件时才成为半正定矩阵,但是这种核函数在SVM中却有很多成功的应用.本文将sigm o id核函数与模糊逻辑相结合并使其模糊化,从而简化了SVM的计算并便于用硬件实现.通过对混沌时间序列预测以及图像去噪滤波器两个实例的实验研究发现,使用模糊sigm o id核函数可以使SVM回归建模在损失较小精度的代价下,较大地降低平均CPU执行时间。展开更多
文摘构造一种适用于反向传播(backpropagation,BP)神经网络的新型激活函数Lfun(logarithmic series function),并使用基于该函数的BP神经网络进行机床能耗状态的预测。首先,分析Sigmoid系列和ReLU系列激活函数的特点和缺陷,结合对数函数,构造了一种非线性分段含参数激活函数。该函数可导且光滑、导数形式简单、单调递增、输出均值为零,且通过可变参数使函数形式更灵活;其次,通过数值仿真实验在公共数据集上将Lfun函数与Sigmoid、ReLU、tanh、Leaky_ReLU和ELU函数的性能进行对比;最后,使用基于Lfun函数的BP神经网络进行机床能耗状态的预测。实验结果表明,使用Lfun函数的BP神经网络相较于使用其他几种常用激活函数的网络具有更好的性能。
文摘支持向量机中对核函数的要求为对称的半正定矩阵.来自于神经网络的sigm o id核函数在其参数满足一定条件时才成为半正定矩阵,但是这种核函数在SVM中却有很多成功的应用.本文将sigm o id核函数与模糊逻辑相结合并使其模糊化,从而简化了SVM的计算并便于用硬件实现.通过对混沌时间序列预测以及图像去噪滤波器两个实例的实验研究发现,使用模糊sigm o id核函数可以使SVM回归建模在损失较小精度的代价下,较大地降低平均CPU执行时间。