众所周知(并不是),图神经网络通常遵循message passing框架,即:沿着节点之间的边进行信息的传播,并更新节点表示。
上述方式是保持图上结构的好方法,也在很多任务上得到了验证。
但是,最近一篇文章发现:无需message passing,只要简单的MLP就可超越GNN!
image-20210623003720582
本文和目前GNN的最大差异如下图所示:
image-20210623004056645
具体是怎么做的呢?
在节点
的r-hop范围内,则认为两者应该相似。
分别代表节点
的表示。
其实到这里,本文的核心设计基本就说完了。下面看看实验结果,简而言之:Graph-MLP又快又好。
image-20210623004446575
另外,Graph-MLP对于噪音连接也更加鲁棒。随机对图结构加上噪音之后,GCN的表现会大幅度的下降,而Grpah-MLP基本保持稳定。
img
最后,其实本文的做法在先前的Graph Embedding已经有一些了。例如,18ICLR DEEP GAUSSIAN EMBEDDING OF GRAPHS_UNSUPERVISED INDUCTIVE LEARNING VIA RANKING 就是直接将节点属性映射为一个表示(高斯分布),然后基于节点之间的距离远近来进行优化。