期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
面向半监督归纳式学习的自训练增强图模型
1
作者 杨瀚轩 余昭昕 +2 位作者 李子乾 徐会芳 孔庆超 《计算机学报》 北大核心 2025年第10期2263-2277,共15页
图表示学习是图数据分析的一个基础研究问题,在多种应用领域中均具有重要的研究价值。不同于一般的直推式学习,归纳式图表示学习要求对训练过程中不可见的未知节点进行推理和分类,因此具有更大的研究挑战。现有归纳式学习方法主要采用... 图表示学习是图数据分析的一个基础研究问题,在多种应用领域中均具有重要的研究价值。不同于一般的直推式学习,归纳式图表示学习要求对训练过程中不可见的未知节点进行推理和分类,因此具有更大的研究挑战。现有归纳式学习方法主要采用建立在全监督学习下的图神经网络,这些方法依赖于大量带标注的数据进行训练,因而在面对可见结构中节点标注稀缺的半监督归纳式学习问题时可能存在模型过拟合问题。本文首次提出半监督归纳式图表示学习问题,并建立了一种自训练增强的归纳式图(Self-Training Augmented Inductive Graph,STAIG)模型,该模型由一个使用图神经网络学习节点向量表示的编码器和一个通过重构节点标签和属性特征训练模型的解码器组成。针对半监督归纳式图学习问题,所提出的模型采用自训练增强方法,并在编码器中提出一种基于随机游走的节点掩码方法提高预测未知节点的泛化性。在此基础上,为了进一步应对标注稀缺问题,该模型使用解码器生成节点伪标签来增强标注信息,并通过置信度过滤机制提高伪标签的可靠性。基于基准归纳式学习图数据集的实验验证了本文提出的STAIG模型在半监督节点分类任务上取得了优于对比方法的结果,且在标注数据比例低于10%的弱监督学习设置下具有显著优势。 展开更多
关键词 归纳式图表示学习 半监督节点分类 变分图自编码 自训练增强
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部