期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
基于双曲正切函数的修正线性单元 被引量:8
1
作者 刘坤华 钟佩思 +2 位作者 徐东方 夏强 刘梅 《计算机集成制造系统》 EI CSCD 北大核心 2020年第1期145-151,共7页
为解决修正线性单元(ReLU)的神经元死亡现象,提出一个新的激活函数——基于双曲正切函数(tanh)的修正线性单元(ThLU)。ThLU函数正半轴来自于ReLU函数的正半轴,负半轴来自于tanh函数的负半轴。为验证ThLU函数的性能,基于VggNet-16神经网... 为解决修正线性单元(ReLU)的神经元死亡现象,提出一个新的激活函数——基于双曲正切函数(tanh)的修正线性单元(ThLU)。ThLU函数正半轴来自于ReLU函数的正半轴,负半轴来自于tanh函数的负半轴。为验证ThLU函数的性能,基于VggNet-16神经网络架构,分别在CIFAR-10和CIFAR-100数据集上进行了试验验证。结果表明:基于ThLU函数训练得到的神经网络模型比基于tanh、ReLU、泄露修正线性单元(LReLU)和指数线性单元(ELU)训练得到的神经网络模型具有更高的准确率、更低的损失。 展开更多
关键词 激活函数 双曲正切函数 修正线性单元 泄露修正线性单元 指数线性单元 深度学习
在线阅读 下载PDF
一种新的深度卷积神经网络的SLU函数 被引量:4
2
作者 赵慧珍 刘付显 李龙跃 《哈尔滨工业大学学报》 EI CAS CSCD 北大核心 2018年第4期117-123,共7页
修正线性单元(rectified linear unit,ReLU)是深度卷积神经网络常用的激活函数,但当输入为负数时,ReLU的输出为零,造成了零梯度问题;且当输入为正数时,ReLU的输出保持输入不变,使得ReLU函数的平均值恒大于零,引起了偏移现象,从而限制了... 修正线性单元(rectified linear unit,ReLU)是深度卷积神经网络常用的激活函数,但当输入为负数时,ReLU的输出为零,造成了零梯度问题;且当输入为正数时,ReLU的输出保持输入不变,使得ReLU函数的平均值恒大于零,引起了偏移现象,从而限制了深度卷积神经网络的学习速率和学习效果.针对ReLU函数的零梯度问题和偏移现象,根据"输出均值接近零的激活函数能够提升神经网络学习性能"原理对其进行改进,提出SLU(softplus linear unit)函数.首先,对负数输入部分进行softplus处理,使得负数输入时SLU函数的输出为负,从而输出平均值更接近于零,减缓了偏移现象;其次,为保证梯度平稳,对SLU的参数进行约束,并固定正数部分的参数;最后,根据SLU对正数部分的处理调整负数部分的参数,确保激活函数在零点处连续可导,信息得以双向传播.设计深度自编码模型在数据集MINST上进行无监督学习,设计网中网卷积神经网络模型在数据集CIFAR-10上进行监督学习.实验结果表明,与ReLU及其相关改进单元相比,基于SLU函数的神经网络模型具有更好的特征学习能力和更高的学习精度. 展开更多
关键词 深度学习 卷积神经网络 激活函数 softplus函数 修正线性单元
在线阅读 下载PDF
绝对值激活深度神经网络的串联故障电弧检测 被引量:4
3
作者 余琼芳 黄高路 杨艺 《计算机应用》 CSCD 北大核心 2019年第A01期54-59,共6页
串联故障电弧具有隐蔽性和随机性,发生时线路电流波形受负载类型的影响而具有复杂性,检测难度大,严重威胁用电系统安全。鉴于电流数据具有大量负值的特点,提出用绝对值函数作为激活函数改进AlexNet深度学习网络检测串联故障电弧,并分析... 串联故障电弧具有隐蔽性和随机性,发生时线路电流波形受负载类型的影响而具有复杂性,检测难度大,严重威胁用电系统安全。鉴于电流数据具有大量负值的特点,提出用绝对值函数作为激活函数改进AlexNet深度学习网络检测串联故障电弧,并分析了激活函数特性对串联故障电弧检测效果的影响。把实验采集的三类负载分别在正常和发生串联故障电弧状态下的共7200组电流数据制作成训练集和测试集,并分别对使用四种激活函数的AlexNet网络进行训练和测试。实验结果显示,ELU激活的网络最高检测正确率为95.5%;而绝对值激活的网络效果最好,其平均检测正确率最高为97.25%,最低为93%,比ReLU激活的AlexNet网络最高88.75%的平均准确率高出最少4.25个百分点;而使用Sigmoid函数的网络不收敛。分析结果表明线性的激活数据特征有助于提高网络的检测准确率。 展开更多
关键词 串联故障电弧 深度学习 卷积神经网络 激活函数 绝对值函数 指数线性单元 修正线性单元
在线阅读 下载PDF
基于SwinT-YOLOX模型的自动扶梯行人安全检测算法 被引量:3
4
作者 侯颖 杨林 +3 位作者 胡鑫 贺顺 宋婉莹 赵谦 《计算机工程》 CAS CSCD 北大核心 2024年第3期277-289,共13页
自动扶梯被广泛应用在公共场合,乘客摔倒事故如果不能被及时发现并处理,会造成严重的人身伤害,因此实现自动扶梯智能化监控管理势在必行。受自动扶梯运行环境复杂、行人多以及局部遮挡情况的影响,传统的人体姿态特征摔倒检测模型效果不... 自动扶梯被广泛应用在公共场合,乘客摔倒事故如果不能被及时发现并处理,会造成严重的人身伤害,因此实现自动扶梯智能化监控管理势在必行。受自动扶梯运行环境复杂、行人多以及局部遮挡情况的影响,传统的人体姿态特征摔倒检测模型效果不佳且检测速度减慢。融合Swin Transformer和YOLOX目标检测算法的优秀策略,提出一种基于SwinT-YOLOX网络模型的自动扶梯行人摔倒检测算法。采用Swin Transformer模型作为骨干网络,颈部网络使用添加注意力机制的YOLOX模型,进一步提升特征图的多样性和表达能力。此外,利用漏斗修正线性单元视觉激活函数构建CBF模块,改进颈部网络和Head网络结构,从而获得更优的特征检测性能。实验结果表明,针对自建扶梯行人摔倒数据库和网络采集实际扶梯行人摔倒事故,与AlphaPose、OpenPose、YOLOv5等算法相比,该算法检测性能明显提高,行人摔倒平均检测精度可以达到95.92%,检测帧率为24.08帧/s,能够快速、精准地检测到乘客摔倒事故发生,监控管理平台立刻采取安全急停措施以保证乘客安全。 展开更多
关键词 自动扶梯 摔倒检测 深度学习 YOLOX模型 Swin Transformer模型 漏斗修正线性单元视觉激活函数
在线阅读 下载PDF
基于通道特征聚合的行人重识别算法 被引量:1
5
作者 徐增敏 陆光建 +2 位作者 陈俊彦 陈金龙 丁勇 《应用科学学报》 CAS CSCD 北大核心 2023年第1期107-120,共14页
在基于深度学习的行人重识别算法中,通道特征易被忽视而导致模型表达能力降低。为此,以ResNeSt50为骨干网络,借鉴SENet通道注意力特点在残差块末尾接入SE block,增强网络对通道特征的提取能力;针对ReLU函数因缺少控制因子而限制不同通... 在基于深度学习的行人重识别算法中,通道特征易被忽视而导致模型表达能力降低。为此,以ResNeSt50为骨干网络,借鉴SENet通道注意力特点在残差块末尾接入SE block,增强网络对通道特征的提取能力;针对ReLU函数因缺少控制因子而限制不同通道特征图对激活值的准确响应问题,引入一个动态学习因子来丰富通道特征权重信息,以形成新的加权激活函数Weighted ReLU(WReLU);基于分组卷积特征图局部而设计新的激活函数Leaky Weighted ReLU(LWReLU),有效提高不同位置的深度特征表达能力;在Split-Attention和SE block中应用LWReLU,改善Split-Attention对各组特征图的权重学习能力;利用circle loss改进损失函数,优化目标收敛过程,从而提高模型精度。实验结果表明:在CUHK03-NP、Market1501和DukeMTMC-ReID数据集上,所提方法的Rank-1比原骨干网络分别提高了19.08%、0.98%、2.02%,且其mAP比原骨干网络分别提高了17.13%、2.11%、2.56%。 展开更多
关键词 分组卷积 通道注意力 修正线性单元 激活函数 动态学习因子
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部