排序方式: 共有1条查询结果,搜索用时 0 毫秒
1
1.
多数图神经网络(Graph Neural Networks, GNN)通过设计复杂的节点信息传递和聚合方式,以提升节点分类等图分析任务的实验表现,而本文提出了一种无需信息传递和聚合的图多层感知机(Multi-Layer Perceptron, MLP)模型A&T-MLP,利用属性和拓扑信息引导的对比损失来增强模型表征能力。A&T-MLP首先使用属性矩阵和邻接矩阵计算节点间的属性和拓扑相似度;然后使用基于相似度信息引导的对比损失,增大特征空间中相似节点的一致性和不相似节点的差异性;最后构建多层感知机模型并引入交叉熵损失进行端到端训练。在节点分类任务中,A&T-MLP表现优于基线模型,Wikipedia数据集上的Micro-F1和Macro-F1相较GNN模型图卷积网络(Graph Convolutional Network, GCN)提升了15.86%和13.64%。实验结果表明,A&T-MLP能够通过对比损失保留丰富原始图的信息,提升模型性能。此外,A&T-MLP在处理拓扑信息不准确的图数据时具有较为明显的优势,即使在缺失80%拓扑信息的极端情况... 相似文献
1