期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
基于Softplus函数的神经网络的Reluplex算法验证研究
1
作者 陆明远 侯春燕 王劲松 《信息安全研究》 2022年第9期917-924,共8页
形式化验证是计算机科学中运用数理逻辑的方式验证某个系统是否可行的方法,而把形式化验证方法充分应用于神经网络领域,则能更好地研究神经网络的特性与应用.Reluplex是一种对深度神经网络进行验证的单纯形算法,它使用Relu作为激活函数,... 形式化验证是计算机科学中运用数理逻辑的方式验证某个系统是否可行的方法,而把形式化验证方法充分应用于神经网络领域,则能更好地研究神经网络的特性与应用.Reluplex是一种对深度神经网络进行验证的单纯形算法,它使用Relu作为激活函数,而Relu的神经元在训练过程中较脆弱并可能垂死.Softplus是与Relu近似但比Relu更平滑的激活函数,改进了Reluplex算法使之能检验采用Softplus激活函数的深度神经网络,随后获取了在Softplus激活函数下测试鲁棒对抗性得到的实验数据结果,通过与Relu测试结果进行对比,证明了Softplus的测试效率明显高于Relu,它比Relu更平衡,从而让神经网络的学习更快.该研究扩展了神经网络验证算法的功能并展开了相应的对比分析,有利于以后更好地验证和改进深度神经网络,以确保其安全性. 展开更多
关键词 神经网络 形式化验证 激活函数 Relu函数 softplus函数
在线阅读 下载PDF
基于YOLOv8改进的脑癌检测算法
2
作者 王喆 赵慧俊 +2 位作者 谭超 李骏 申冲 《计算机科学》 CSCD 北大核心 2024年第S02期444-450,共7页
自动检测脑部肿瘤在磁共振成像中的位置是一个复杂、繁重的任务,需要耗费大量时间和资源。传统识别方案经常出现误解、遗漏和误导的情况,从而影响患者的治疗进度,对患者的生命安全产生影响。为了进一步提高鉴定的效果,引入了4项关键改... 自动检测脑部肿瘤在磁共振成像中的位置是一个复杂、繁重的任务,需要耗费大量时间和资源。传统识别方案经常出现误解、遗漏和误导的情况,从而影响患者的治疗进度,对患者的生命安全产生影响。为了进一步提高鉴定的效果,引入了4项关键改进措施。首先,采用了高效的多尺度注意力EMA(Efficient Multi-scale Attention),这种方法既可以对全局信息进行编码,也可以对信息进行重新校准,同时通过并行的分支输出特征进行跨维度的交互,使信息进一步聚合。其次,引入了BiFPN(Bidirectional Feature Pyramid Network)模块,并对其结构进行改进,以便缩短每一次检测所需要的时间,同时提升图像识别效果。然后采用MDPIoU损失函数和Mish激活函数进行改进,进一步提高检测的准确度。最后进行仿真实验,实验结果表明,改进的YOLOv8算法在脑癌检测中的精确率、召回率、平均精度均值均有提升,其中Precision提高了4.48%,Recall提高了2.64%,mAP@0.5提高了2.6%,mAP@0.5:0.9提高了7.0%。 展开更多
关键词 YOLOv8 脑癌 Efficient Multi-Scale Attention模块 Bidirectional Feature Pyramid Network结构 Missed softplus with Identity Shortcut激活函数 Minimum Point Distance Intersection over Union损失函数
在线阅读 下载PDF
一种新的深度卷积神经网络的SLU函数 被引量:4
3
作者 赵慧珍 刘付显 李龙跃 《哈尔滨工业大学学报》 EI CAS CSCD 北大核心 2018年第4期117-123,共7页
修正线性单元(rectified linear unit,ReLU)是深度卷积神经网络常用的激活函数,但当输入为负数时,ReLU的输出为零,造成了零梯度问题;且当输入为正数时,ReLU的输出保持输入不变,使得ReLU函数的平均值恒大于零,引起了偏移现象,从而限制了... 修正线性单元(rectified linear unit,ReLU)是深度卷积神经网络常用的激活函数,但当输入为负数时,ReLU的输出为零,造成了零梯度问题;且当输入为正数时,ReLU的输出保持输入不变,使得ReLU函数的平均值恒大于零,引起了偏移现象,从而限制了深度卷积神经网络的学习速率和学习效果.针对ReLU函数的零梯度问题和偏移现象,根据"输出均值接近零的激活函数能够提升神经网络学习性能"原理对其进行改进,提出SLU(softplus linear unit)函数.首先,对负数输入部分进行softplus处理,使得负数输入时SLU函数的输出为负,从而输出平均值更接近于零,减缓了偏移现象;其次,为保证梯度平稳,对SLU的参数进行约束,并固定正数部分的参数;最后,根据SLU对正数部分的处理调整负数部分的参数,确保激活函数在零点处连续可导,信息得以双向传播.设计深度自编码模型在数据集MINST上进行无监督学习,设计网中网卷积神经网络模型在数据集CIFAR-10上进行监督学习.实验结果表明,与ReLU及其相关改进单元相比,基于SLU函数的神经网络模型具有更好的特征学习能力和更高的学习精度. 展开更多
关键词 深度学习 卷积神经网络 激活函数 softplus函数 修正线性单元
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部