期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
用于超分辨率重建的深度网络递进学习方法 被引量:9
1
作者 张毅锋 刘袁 +1 位作者 蒋程 程旭 《自动化学报》 EI CSCD 北大核心 2020年第2期274-282,共9页
本文针对深度学习在单幅图像超分辨率方面难以恢复高频纹理细节的问题,提出了一种基于递进学习的超分辨率算法.该算法首先采用灰度共生矩阵提取图像纹理特征,然后利用基于密度峰值的聚类方法实现对整个训练集的分类,其中每个训练子集具... 本文针对深度学习在单幅图像超分辨率方面难以恢复高频纹理细节的问题,提出了一种基于递进学习的超分辨率算法.该算法首先采用灰度共生矩阵提取图像纹理特征,然后利用基于密度峰值的聚类方法实现对整个训练集的分类,其中每个训练子集具有相似的纹理复杂度.针对传统的递进学习方法会出现对已掌握知识"遗忘"的问题,本文根据网络模型在各个训练子集上的拟合情况,实时调整当前训练样本在各个子集上的概率分布,从而实现快速收敛,并获得更好的纹理细节复原效果.将本文提出的递进学习用于DRCN、VDSR、SRCNN等超分辨率网络的训练,实验结果表明超分辨率网络收敛速度得到提升,同时网络对复杂纹理等细节较多的图像也获得了较好的视觉恢复效果,峰值信噪比则平均获得0.158 dB、0.18 dB、0.092 dB的提升. 展开更多
关键词 超分辨率 递进学习 共生矩阵 密度峰值
在线阅读 下载PDF
基于基完备化理论和嵌入多层感知机的深度网络结构设计 被引量:5
2
作者 张毅锋 蒋程 +1 位作者 程旭 刘袁 《东南大学学报(自然科学版)》 EI CAS CSCD 北大核心 2018年第5期933-938,共6页
为了进一步改善经典卷积神经网络的识别性能,首先证明了跨层传输实质上是基的完备化过程,然后基于多类型特征提取结构、嵌入多层感知机以及跨层传输结构提出一种新型深度卷积网络——期望网络.经分析发现,期望网络中的多类型特征提取结... 为了进一步改善经典卷积神经网络的识别性能,首先证明了跨层传输实质上是基的完备化过程,然后基于多类型特征提取结构、嵌入多层感知机以及跨层传输结构提出一种新型深度卷积网络——期望网络.经分析发现,期望网络中的多类型特征提取结构可提取不同类型的特征,嵌入多层感知机可生成期望图并标定不同类型特征的权重,跨层传输结构可缓解网络性能退化的问题.仿真实验结果表明,在数据集CIFAR-10、数据集CIFAR-100和数据集SVHN上,相比于ResNet网络、深度监督网络和Highw ay网络等经典深度卷积网络,期望网络的误识别率均有不同程度的下降. 展开更多
关键词 基完备化 期望网络 嵌入多层感知机 期望图
在线阅读 下载PDF
基于DWT最优多子图和SIFT几何校正的鲁棒水印算法 被引量:7
3
作者 李莹莹 张毅锋 +1 位作者 程旭 孙一博 《计算机应用研究》 CSCD 北大核心 2019年第6期1819-1823,1827,共6页
为提高水印系统鲁棒性,提出一种基于PSO算法优化的DWT多子图水印算法。算法选择DWT后的多个子图作DCT(离散余弦变换),然后利用PSO算法寻找最优的多子图组合权重,利用扩展变换QIM原理嵌入和提取水印。为提高算法抵抗几何攻击的性能,提出... 为提高水印系统鲁棒性,提出一种基于PSO算法优化的DWT多子图水印算法。算法选择DWT后的多个子图作DCT(离散余弦变换),然后利用PSO算法寻找最优的多子图组合权重,利用扩展变换QIM原理嵌入和提取水印。为提高算法抵抗几何攻击的性能,提出基于改进SIFT的水印图像抗几何攻击方法。采用一种基于圆的特征点描述方法改进SIFT,然后在水印提取前通过SIFT特征点匹配进行几何校正预处理。实验仿真结果表明,在保证水印不可察觉的基础上,基于PSO算法优化的DWT多子图水印算法的鲁棒性优于基于DWT单一子图的水印算法;加入改进SIFT算法的水印系统抵抗几何攻击的能力明显提高。 展开更多
关键词 DWT-DCT数字水印 扩展变换QIM 粒子群优化算法 尺度不变特征变换
在线阅读 下载PDF
基于特征点与多网络联合训练的表情识别 被引量:7
4
作者 夏添 张毅锋 刘袁 《计算机辅助设计与图形学学报》 EI CSCD 北大核心 2019年第4期552-559,共8页
由于表情图片序列比单张表情图片的信息更丰富,因此基于前者的表情识别容易取得更好的实验效果.针对表情图片序列,提出一种仅基于人脸特征点信息和联合训练2个深度神经网络进行表情识别的方法.首先基于长度不定的图片序列抽取各帧之间... 由于表情图片序列比单张表情图片的信息更丰富,因此基于前者的表情识别容易取得更好的实验效果.针对表情图片序列,提出一种仅基于人脸特征点信息和联合训练2个深度神经网络进行表情识别的方法.首先基于长度不定的图片序列抽取各帧之间差异最大化的子集;其次提取该子集中所有图片的特征点坐标进行预处理;再将坐标分别输入微观深度网络(MIC-NN)与宏观深度网络(MAC-NN)进行独立训练;最后基于惩罚MIC-NN与MAC-NN间差异的损失函数联合训练二者后,使用融合网络(FUS-NN)作为最终预测模型.在CK+,Oulu-CASIA,MMI这3个数据集中的实验结果表明,FUS-NN取得了优于绝大部分已知方法 1%~15%的识别率,仅在MMI数据集中落后于最优模型2%;相比之下,该网络的时间复杂度远远小于效果相近的模型,取得了更好的识别效果与计算资源的平衡. 展开更多
关键词 表情识别 深度学习 联合训练 融合网络
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部