202409 论文研读-Graph Transformer Networks

来源:NeurIPS 2019

作者: Seongjun Yun, Minbyul Jeong, Raehyun Kim, Jaewoo Kang, Hyunwoo J. Kim

单位:Department of Computer Science and Engineering Korea University

一、论文主要工作及贡献

1.本文提出了能够生成新图结构的Graph Transformer Networks,它涉及识别原始图上未连接节点之间的有用连接,同时以端到端方式学习新图上有效的节点表示。Graph Transformer layer是核心层,它学习边缘类型和复合关系的软选择,以生成有用的多跳连接,即所谓的元路径。

2.图形生成是可解释的,模型能够提供有效的元路径进行预测。

二、模型框架

2.1 模型框架图

2.2 Meta-Path Generation

当α不是独热向量时,AP可以看作是所有长度为l的元路径邻接矩阵的加权和。

为了学习包含原始边的短元路径和长元路径,在A中包含单位矩阵I,即A0 = I。这个技巧允许GTN在堆叠L个GT层时学习任何长度的元路径,直到l +1。

2.3 Graph Transformer Networks

三、实验结果

3.1 数据集

3.2 评估结果

四、总结与思考

1.将一个异构图转换为多个由元路径定义的新图,这些元路径具有任意边类型和任意长度,最多少于graph Transformer层的数量,同时它通过对学习到的元路径图进行卷积来学习节点表示。

2.异构图转换为多元路径的新图可以作为模式归类的一种方法。

3.任意边类型和任意长度也可以作为基图中模式归类的一个点。