前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >比GNN快且好的MLP来啦

比GNN快且好的MLP来啦

作者头像
Houye
发布2021-07-08 15:59:55
1.1K0
发布2021-07-08 15:59:55
举报
文章被收录于专栏:图与推荐

众所周知(并不是),图神经网络通常遵循message passing框架,即:沿着节点之间的边进行信息的传播,并更新节点表示。

上述方式是保持图上结构的好方法,也在很多任务上得到了验证。

但是,最近一篇文章发现:无需message passing,只要简单的MLP就可超越GNN!

image-20210623003720582

本文和目前GNN的最大差异如下图所示:

  • 目前的GNN都是用邻接矩阵A来指导消息传播和聚合过程,后面接一个任务loss,如分类的cross entropy loss
  • 本文则是将节点属性通过MLP来映射为其表示,而邻接矩阵A仅仅用来作为loss,指导优化过程。这里设计了所谓的Neighboring Contrastive Loss 来进行优化。简单来说就是:距离比较近的节点,其表示优化成相似的;距离比较远的节点,其表示优化成不相似的。

image-20210623004056645

具体是怎么做的呢?

  • 首先明确一下,节点的表示是否应该相似。如果节点
j

在节点

i

的r-hop范围内,则认为两者应该相似。

\gamma_{i j}\left\{\begin{array}{ll}=0, & \text { node } j \text { is the } r \text { -hop neighbor of node } i \\ \neq 0, & \text { node } j \text { is not the } r \text { -hop neighbor of node } i\end{array}\right.
  • 相似节点和不相似节点表示分别拉近和推开。
\boldsymbol{z}_{i}, \boldsymbol{z}_{j}

分别代表节点

i,j

的表示。

\ell_{i}=-\log \frac{\sum_{j=1}^{B} \mathbf{1}_{[j \neq i]} \gamma_{i j} \exp \left(\operatorname{sim}\left(\boldsymbol{z}_{i}, \boldsymbol{z}_{j}\right) / \tau\right)}{\sum_{k=1}^{B} \mathbf{1}_{[k \neq i]} \exp \left(\operatorname{sim}\left(\boldsymbol{z}_{i}, \boldsymbol{z}_{k}\right) / \tau\right)}

其实到这里,本文的核心设计基本就说完了。下面看看实验结果,简而言之:Graph-MLP又快又好。

image-20210623004446575

另外,Graph-MLP对于噪音连接也更加鲁棒。随机对图结构加上噪音之后,GCN的表现会大幅度的下降,而Grpah-MLP基本保持稳定。

img

最后,其实本文的做法在先前的Graph Embedding已经有一些了。例如,18ICLR DEEP GAUSSIAN EMBEDDING OF GRAPHS_UNSUPERVISED INDUCTIVE LEARNING VIA RANKING 就是直接将节点属性映射为一个表示(高斯分布),然后基于节点之间的距离远近来进行优化。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-06-24,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 图神经网络与推荐系统 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档