首页 | 本学科首页   官方微博 | 高级检索  
     检索      

基于时空建模的动态图卷积神经网络
引用本文:李荆,刘钰,邹磊.基于时空建模的动态图卷积神经网络[J].北京大学学报(自然科学版),2021,57(4):605-613.
作者姓名:李荆  刘钰  邹磊
作者单位:1. 北京大学前沿交叉学科研究院, 北京 100871 2. 北京大学王选计算机研究所, 北京 100871
基金项目:国家自然科学基金(61932001)资助
摘    要:为了使图表示学习得到的嵌入向量对节点和边不断变化的动态图具有很好的信息表征能力, 提出一种动态图卷积神经网络模型(DyGCN), 将动态图上的表示学习建模为时间和空间信息的聚合。该模型将从图卷积神经网络(GCN)的空间卷积提取图上的结构信息与从时间卷积神经网络(TCN)的因果卷积提取时序上的历史信息相结合, 同时在空间卷积层加入自适应的模型更新机制, 使得模型参数随着图结构的变化能够自适应地更新。在金融领域数据集上针对金融欺诈检测进行的边分类实验表明, 该模型比现有方法有很大的性能提升。

关 键 词:动态图  图卷积神经网络(GCN)  图表示学习  时空卷积  
收稿时间:2020-05-25

A Dynamic Graph Convolutional Network Based on Spatial-Temporal Modeling
LI Jing,LIU Yu,ZOU Lei.A Dynamic Graph Convolutional Network Based on Spatial-Temporal Modeling[J].Acta Scientiarum Naturalium Universitatis Pekinensis,2021,57(4):605-613.
Authors:LI Jing  LIU Yu  ZOU Lei
Institution:1. Academy for Advanced Interdisciplinary Studies, Peking University, Beijing 100871 2. Wangxuan Institute of Computer Technology, Peking University, Beijing 100871
Abstract:In order to learn high-level representation with rich information for dynamic graphs where nodes and edges change dynamically, a dynamic graph convolutional network (DyGCN) is proposed to learn representation as a mixture of both spatial and temporal information. The model performs spatial convolutions to learn structural information on graphs and temporal convolutions to learn historical information along time axis. Besides, the selfadapting mechanism on the spatial convolution layer allows model parameters to update with graphs. Extensive experiments on financial networks for edge classification tasks against financial crimes show that DyGCN outperforms state-of-the-art methods.
Keywords:dynamic graphs  graph convolutional network (GCN)  graph representation learning  spatial-temporal convolutions
  
本文献已被 CNKI 万方数据 等数据库收录!
点击此处可从《北京大学学报(自然科学版)》浏览原始摘要信息
点击此处可从《北京大学学报(自然科学版)》下载免费的PDF全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号