期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
一种面向基于闪存的脉冲卷积神经网络的模拟神经元电路
被引量:
3
1
作者
顾晓峰
刘彦航
+4 位作者
虞致国
钟啸宇
陈轩
孙一
潘红兵
《电子与信息学报》
EI
CSCD
北大核心
2023年第1期116-124,共9页
该文面向基于闪存(Flash)的脉冲卷积神经网络(SCNN)提出一种积分发放(IF)型模拟神经元电路,该电路实现了位线电压箝位、电流读出减法和积分发放功能。为解决低电流读出速度较慢的问题,该文设计一种通过增加旁路电流大幅提高电流读出范...
该文面向基于闪存(Flash)的脉冲卷积神经网络(SCNN)提出一种积分发放(IF)型模拟神经元电路,该电路实现了位线电压箝位、电流读出减法和积分发放功能。为解决低电流读出速度较慢的问题,该文设计一种通过增加旁路电流大幅提高电流读出范围和读出速度的方法;针对传统模拟神经元复位方案造成的阵列信息丢失问题,提出一种固定泄放阈值电压的脉冲神经元复位方案,提高了阵列电流信息的完整性和神经网络的精度。基于55 nm互补金属氧化物半导体(CMOS)工艺对电路进行设计并流片。后仿结果表明,在20 μA电流输出时,读出速度提高了100%,在0 μA电流输出时,读出速度提升了263.6%,神经元电路工作状态良好。测试结果表明,在0~20 μA电流输出范围内,箝位电压误差小于0.2 mV,波动范围小于0.4 mV,电流读出减法线性度可达到99.9%。为了研究所提模拟神经元电路的性能,分别通过LeNet和AlexNet对MNIST和CIFAR-10数据集进行识别准确率测试,结果表明,神经网络识别准确率分别提升了1.4%和38.8%。
展开更多
关键词
闪存
脉冲卷积神经网络
模拟
神经
元电路
位线箝位
高速读出
固定泄放阈值电压
在线阅读
下载PDF
职称材料
面向动态事件流的神经网络转换方法
被引量:
1
2
作者
张宇豪
袁孟雯
+2 位作者
陆宇婧
燕锐
唐华锦
《计算机应用》
CSCD
北大核心
2022年第10期3033-3039,共7页
针对基于权重归一化方法的卷积神经网络(CNN)转换方法应用于事件流数据时准确率损失较大以及浮点网络难以在硬件上高效部署等问题,提出一种面向动态事件流的网络转换方法。首先,重构事件流数据并输入CNN进行训练,在训练过程中采用量化...
针对基于权重归一化方法的卷积神经网络(CNN)转换方法应用于事件流数据时准确率损失较大以及浮点网络难以在硬件上高效部署等问题,提出一种面向动态事件流的网络转换方法。首先,重构事件流数据并输入CNN进行训练,在训练过程中采用量化激活函数降低转换的准确率损失,并使用对称定点量化方法以减少参数存储量;其次,在网络转换中采用脉冲计数等价原理而非频率等价原理以更好地适应数据的稀疏性。实验结果表明,与使用传统激活函数相比,采用量化激活函数的脉冲卷积神经网络(SCNN)在N-MNIST、POKER-DVS和MNIST-DVS这三个动态事件流数据集上的识别准确率分别提高了0.29个百分点、8.52个百分点和3.95个百分点,转换损失分别降低了21.77%、100.00%和92.48%;此外,相较于基于权重归一化方法生成的高精度SCNN,所提量化SCNN在识别准确率相当的情况下可以有效节省约75%的存储空间,并且在N-MNIST和MNIST-DVS数据集上的转换损失分别降低了6.79%和46.29%。
展开更多
关键词
神经网络
转换
动态事件流
量化激活函数
定点量化
脉冲卷积神经网络
在线阅读
下载PDF
职称材料
题名
一种面向基于闪存的脉冲卷积神经网络的模拟神经元电路
被引量:
3
1
作者
顾晓峰
刘彦航
虞致国
钟啸宇
陈轩
孙一
潘红兵
机构
江南大学物联网技术应用教育部工程研究中心电子工程系
南京大学电子科学与工程学院
出处
《电子与信息学报》
EI
CSCD
北大核心
2023年第1期116-124,共9页
基金
中央高校基本科研业务费专项资金(JUSRP51510)
江苏省重点研发计划(BE2019003-2)。
文摘
该文面向基于闪存(Flash)的脉冲卷积神经网络(SCNN)提出一种积分发放(IF)型模拟神经元电路,该电路实现了位线电压箝位、电流读出减法和积分发放功能。为解决低电流读出速度较慢的问题,该文设计一种通过增加旁路电流大幅提高电流读出范围和读出速度的方法;针对传统模拟神经元复位方案造成的阵列信息丢失问题,提出一种固定泄放阈值电压的脉冲神经元复位方案,提高了阵列电流信息的完整性和神经网络的精度。基于55 nm互补金属氧化物半导体(CMOS)工艺对电路进行设计并流片。后仿结果表明,在20 μA电流输出时,读出速度提高了100%,在0 μA电流输出时,读出速度提升了263.6%,神经元电路工作状态良好。测试结果表明,在0~20 μA电流输出范围内,箝位电压误差小于0.2 mV,波动范围小于0.4 mV,电流读出减法线性度可达到99.9%。为了研究所提模拟神经元电路的性能,分别通过LeNet和AlexNet对MNIST和CIFAR-10数据集进行识别准确率测试,结果表明,神经网络识别准确率分别提升了1.4%和38.8%。
关键词
闪存
脉冲卷积神经网络
模拟
神经
元电路
位线箝位
高速读出
固定泄放阈值电压
Keywords
Flash
Spiking Convolutional Neural Network(SCNN)
Analog neuron circuit
Bit line clamp
High-speed readout
Reset by subtracting threshold voltage
分类号
TN432 [电子电信—微电子学与固体电子学]
在线阅读
下载PDF
职称材料
题名
面向动态事件流的神经网络转换方法
被引量:
1
2
作者
张宇豪
袁孟雯
陆宇婧
燕锐
唐华锦
机构
四川大学计算机学院
之江实验室智能计算硬件研究中心
浙江工业大学计算机科学与技术学院
浙江大学计算机科学与技术学院
出处
《计算机应用》
CSCD
北大核心
2022年第10期3033-3039,共7页
基金
国家自然科学基金委员会-中国工程物理研究院“NSAF”联合基金资助项目(U2030204)
国家自然科学基金资助项目(61773271)
之江实验室科研攻关项目(2021KC0AC01)。
文摘
针对基于权重归一化方法的卷积神经网络(CNN)转换方法应用于事件流数据时准确率损失较大以及浮点网络难以在硬件上高效部署等问题,提出一种面向动态事件流的网络转换方法。首先,重构事件流数据并输入CNN进行训练,在训练过程中采用量化激活函数降低转换的准确率损失,并使用对称定点量化方法以减少参数存储量;其次,在网络转换中采用脉冲计数等价原理而非频率等价原理以更好地适应数据的稀疏性。实验结果表明,与使用传统激活函数相比,采用量化激活函数的脉冲卷积神经网络(SCNN)在N-MNIST、POKER-DVS和MNIST-DVS这三个动态事件流数据集上的识别准确率分别提高了0.29个百分点、8.52个百分点和3.95个百分点,转换损失分别降低了21.77%、100.00%和92.48%;此外,相较于基于权重归一化方法生成的高精度SCNN,所提量化SCNN在识别准确率相当的情况下可以有效节省约75%的存储空间,并且在N-MNIST和MNIST-DVS数据集上的转换损失分别降低了6.79%和46.29%。
关键词
神经网络
转换
动态事件流
量化激活函数
定点量化
脉冲卷积神经网络
Keywords
neural network conversion
dynamic event stream
quantized activation function
fixed-point quantization
Spiking Convolutional Neural Network(SCNN)
分类号
TP183 [自动化与计算机技术—控制理论与控制工程]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
一种面向基于闪存的脉冲卷积神经网络的模拟神经元电路
顾晓峰
刘彦航
虞致国
钟啸宇
陈轩
孙一
潘红兵
《电子与信息学报》
EI
CSCD
北大核心
2023
3
在线阅读
下载PDF
职称材料
2
面向动态事件流的神经网络转换方法
张宇豪
袁孟雯
陆宇婧
燕锐
唐华锦
《计算机应用》
CSCD
北大核心
2022
1
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部