图池化作为图神经网络中重要的组件,在获取图的多粒度信息的过程中扮演了重要角色。而当前的图池化操作均以平等地位看待数据点,普遍未考虑利用邻域内数据之间的偏序关系,从而造成图结构信息破坏。针对此问题,本文提出一种基于偏序关系...图池化作为图神经网络中重要的组件,在获取图的多粒度信息的过程中扮演了重要角色。而当前的图池化操作均以平等地位看待数据点,普遍未考虑利用邻域内数据之间的偏序关系,从而造成图结构信息破坏。针对此问题,本文提出一种基于偏序关系的多视图多粒度图表示学习框架(multi-view and multi-granularity graph representation learning based on partial order relationships,MVMGr-PO),它通过从节点特征视图、图结构视图以及全局视图对节点进行综合评分,进而基于节点之间的偏序关系进行下采样操作。相比于其他图表示学习方法,MVMGr-PO可以有效地提取多粒度图结构信息,从而可以更全面地表征图的内在结构和属性。此外,MVMGr-PO可以集成多种图神经网络架构,包括GCN(graph convolutional network)、GAT(graph attention network)以及GraphSAGE(graph sample and aggregate)等。通过在6个数据集上进行实验评估,与现有基线模型相比,MVMGr-PO在分类准确率上有明显提升。展开更多
长尾分类在现实世界中是一项不可避免且充满挑战的任务。传统方法通常只专注于类间的不平衡分布,然而近期的研究开始重视类内的长尾分布,即同一类别内,具有头部属性的样本远多于尾部属性的样本。由于属性的隐含性和其组合的复杂性,类内...长尾分类在现实世界中是一项不可避免且充满挑战的任务。传统方法通常只专注于类间的不平衡分布,然而近期的研究开始重视类内的长尾分布,即同一类别内,具有头部属性的样本远多于尾部属性的样本。由于属性的隐含性和其组合的复杂性,类内不平衡问题更加难以处理。为此,文中提出一种基于引领森林并使用多中心损失的广义长尾分类框架(Cognisance),旨在通过不变性特征学习的范式建立长尾分类问题的多粒度联合求解模型。首先,该框架通过无监督学习构建粗粒度引领森林(Coarse-Grained Leading Forest,CLF),以更好地表征类内关于不同属性的样本分布,进而在不变风险最小化的过程中构建不同的环境。其次,设计了一种新的度量学习损失,即多中心损失(Multi-Center Loss,MCL),可在特征学习过程中逐步消除混淆属性。同时,Cognisance不依赖于特定模型结构,可作为独立组件与其他长尾分类方法集成。在ImageNet-GLT和MSCOCO-GLT数据集上的实验结果显示,所提框架取得了最佳性能,现有方法通过与本框架集成,在Top1-Accuracy指标上均获得2%~8%的提升。展开更多
文摘图池化作为图神经网络中重要的组件,在获取图的多粒度信息的过程中扮演了重要角色。而当前的图池化操作均以平等地位看待数据点,普遍未考虑利用邻域内数据之间的偏序关系,从而造成图结构信息破坏。针对此问题,本文提出一种基于偏序关系的多视图多粒度图表示学习框架(multi-view and multi-granularity graph representation learning based on partial order relationships,MVMGr-PO),它通过从节点特征视图、图结构视图以及全局视图对节点进行综合评分,进而基于节点之间的偏序关系进行下采样操作。相比于其他图表示学习方法,MVMGr-PO可以有效地提取多粒度图结构信息,从而可以更全面地表征图的内在结构和属性。此外,MVMGr-PO可以集成多种图神经网络架构,包括GCN(graph convolutional network)、GAT(graph attention network)以及GraphSAGE(graph sample and aggregate)等。通过在6个数据集上进行实验评估,与现有基线模型相比,MVMGr-PO在分类准确率上有明显提升。
文摘长尾分类在现实世界中是一项不可避免且充满挑战的任务。传统方法通常只专注于类间的不平衡分布,然而近期的研究开始重视类内的长尾分布,即同一类别内,具有头部属性的样本远多于尾部属性的样本。由于属性的隐含性和其组合的复杂性,类内不平衡问题更加难以处理。为此,文中提出一种基于引领森林并使用多中心损失的广义长尾分类框架(Cognisance),旨在通过不变性特征学习的范式建立长尾分类问题的多粒度联合求解模型。首先,该框架通过无监督学习构建粗粒度引领森林(Coarse-Grained Leading Forest,CLF),以更好地表征类内关于不同属性的样本分布,进而在不变风险最小化的过程中构建不同的环境。其次,设计了一种新的度量学习损失,即多中心损失(Multi-Center Loss,MCL),可在特征学习过程中逐步消除混淆属性。同时,Cognisance不依赖于特定模型结构,可作为独立组件与其他长尾分类方法集成。在ImageNet-GLT和MSCOCO-GLT数据集上的实验结果显示,所提框架取得了最佳性能,现有方法通过与本框架集成,在Top1-Accuracy指标上均获得2%~8%的提升。