期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
基于元路径的动态异质网络表示学习 被引量:3
1
作者 刘群 谭洪胜 +1 位作者 张优敏 王国胤 《电子学报》 EI CAS CSCD 北大核心 2022年第8期1830-1839,共10页
对网络表示学习的研究已经取得了很多成果,但是大部分网络表示学习模型忽略了网络动态性和异质性,无法区分网络中耦合的时间和空间(结构)特征,也不能捕获网络的丰富语义信息.本文提出了基于元路径的动态异质网络表示学习方法.首先将节... 对网络表示学习的研究已经取得了很多成果,但是大部分网络表示学习模型忽略了网络动态性和异质性,无法区分网络中耦合的时间和空间(结构)特征,也不能捕获网络的丰富语义信息.本文提出了基于元路径的动态异质网络表示学习方法.首先将节点的邻域结构按照时间划分出不同的子空间结构,并为每个节点采样出所有时间加权元路径的序列.其次通过门控循环单元将节点的全部时间加权元路径序列上的邻域信息进行集成,最后利用带注意力机制的双向门控循环单元对融合后的节点序列进行时空上下文信息学习,获得每个节点的最终表示向量.通过在真实数据集上的实验表明,在节点分类、聚类和可视化的下游任务测试中,本文提出的算法较基线方法在性能上均有较大提升.节点分类任务中的Micro-F1平均提高了1.09%~3.72%,节点聚类任务中的ARI值提高了3.23%~14.49%. 展开更多
关键词 网络表示学习 动态异质网络 元路径 注意力机制 门控循环单元
在线阅读 下载PDF
应用于图像分割的卷积神经网络参数简化模型 被引量:3
2
作者 孙双林 杨倩 张优敏 《重庆理工大学学报(自然科学)》 CAS 北大核心 2021年第3期145-151,共7页
在图像处理领域卷积神经网络普遍存在模型复杂、参数众多等问题,使得方法应用不便、时间开销不可控。针对这一问题,提出了一种混合规模的深度卷积神经网络,该网络架构基于扩展的卷积方法,以便在不同图像规模上采集到关键特征,并通过将... 在图像处理领域卷积神经网络普遍存在模型复杂、参数众多等问题,使得方法应用不便、时间开销不可控。针对这一问题,提出了一种混合规模的深度卷积神经网络,该网络架构基于扩展的卷积方法,以便在不同图像规模上采集到关键特征,并通过将深度特征紧密相连,从而控制参数的数量。实验结果表明,新方法可以在限制模型参数前提下达到相当高的准确率,并能有效降低过拟合的风险。 展开更多
关键词 卷积神经网络 图像分类 参数规模 准确率
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部