首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >【GNN】WL-test:GNN 的性能上界

【GNN】WL-test:GNN 的性能上界

作者头像
Houye
发布于 2020-05-08 07:09:28
发布于 2020-05-08 07:09:28
2.8K0
举报
文章被收录于专栏:图与推荐图与推荐

今天学习斯坦福大学同学 2019 年的工作《HOW POWERFUL ARE GRAPH NEURAL NETWORKS?》,这也是 Jure Leskovec 的另一大作。

我们知道 GNN 目前主流的做法都是通过迭代地对邻居进行「聚合」(aggreating)和「转换」(transforming)来更新节点的表示向量。而在这篇文章中,本文作者提出了一个可以用于分析 GNN 能力的理论框架,通过对目前比较流行的 GNN 变体(如 GCN、GraphSAGE 等)进行分析,其结果表明目前的 GNN 变体甚至无法区分某些简单的图结构。

本文作者设计了一个简单的架构 GIN(Graph Isomorphism Network),并证明该架构在目前所有 GNN 算法中最具表达能力,并且具有与 Weisfeiler-Lehman 图同构测试一样强大的功能。

读完这段介绍大家可能会有多疑问,包括但不限于:

  1. 「为什么 GCN、GraphSAGEE 无法区分简单的图结构」
  2. 「分析 GNN 捕获图结构的能力的理论框架是什么」
  3. 「Weisfeiler-Lehman 图同构测试是什么」
  4. 「为什么提出的 GIN 要与 Weisfeiler-Lehman 图同构测试进行比较」

接下来,我们带着问题来阅读本篇文章。

1.Introduction

GNN 的许多变体都采用了不同的邻域聚合图级别的池化方案,虽然这些变体在节点分类、连接预测和图分类等任务中取得了 SOTA,但是这些 GNN 的设计主要是基于经验而谈,并没有很好的理论基础来分析 GNN 的性质和局限性。

于是,作者提出了一个理论框架用于分析 GNN 及相关变体的表达能力和区分不同图结构的表现力。该框架的灵感来源于 Weifeiler-Lehman 图同构测试(以下简称 WL-test),WL-test 非常强大,其可用于区分各种图结构。与 GNN 类似,WL-test 可以通过聚合邻居节点的特征向量来迭代给定的特征向量,但目前的 GNN 的表达能力都不如 WL-test。WL-test 之所以那么强主要原因在于「单射聚合更新」(injective aggregation update),所以如果要想获得与 WL-test 一样强的表现力,首先考虑对 GNN 的聚合方案对单射函数进行建模。

本文有以下贡献:

  1. 「证明出 WL-test 是 GNN 的表达能力上限」
  2. 「提出了一个可以用于分析 GNN 能力的理论框架」
  3. 「设计了聚合函数和读出函数,使得 GNN 可与 WL-test 一样强大」
  4. 「构建了一个与 WL-test 一样强大的架构——GIN」

2.Weisfeiler-Lehamn

为了让大家无痛学习,我们先写介绍一下 WL-test。

2.1 Graph Isomorphism

先来介绍下什么是同构图。

简单来说,如果图 和 的顶点和边数量相同,且边的连接性相同,则可以称这两个图为同构的。也可以认为, 的点是由 中的点映射得到。

举一个简单例子,判断下面两个图是否是同构的:

其实上面两张图是同构的,映射关系为:。

这个还算比较简单,但是如果节点和边的数量都增加了,可能就没法一眼看出,更别说真实社交网络中几百万节点,几千条万条边的情况了。

简单介绍下为什么要计算图同构:我们在分析社会网络、蛋白质、基因网络等通常会考虑彼此间的相似度问题,比如说,具有相似结构的分子可能具备相似的功能特性,因此度量图的相似度是图学习的一个核心问题。

而图同构问题通常被认为是 NP 问题,目前最有效的算法是 Weisfeiler-Lehman 算法,可以在准多项式时间内进行求解。

2.2 1-dimensional

WL 算法可以是 K-维的,K-维 WL 算法在计算图同构问题时会考虑顶点的 k 元组,如果只考虑顶点的自身特征(如标签、颜色等),那么就是 1-维 WL 算法。

介绍下 1-维 WL 算法,首先给出一个定义:

「多重集」(Multiset):一组可能重复的元素集合。例如:{1,1,2,3}就是一个多重集合。

Nino 大佬在她的论文中给出了一个很经典很形象的例子(不过要注意,这个例子其实从标签数量就可以判断两个图是非同构图了,这里只是以此举个例子。):

  • a:给出两个标签 Label 的图 ;
  • b:考虑节点邻域的标签,并对此排序。(4,1135 表示当前节点标签为 4,其领域节点标签排序后为 1135);
  • c:对标签进行压缩映射;
  • d:得到新标签;
  • e:迭代 1 轮后,利用计数函数分别得到两张图的计数特征,得到图特征向量后便可计算图之间的相似性了。

直观上来看,WL-test 第 k 次迭代时节点的标号表示的是结点高度为 k 的子树结构:

以节点 1 为例,右图是节点 1 迭代两次的子树。因此 WL-test 所考虑的图特征本质上是图中以不同节点为根的子树的计数。

给出伪代码:

分别为:聚合邻居节点标签;多重集排序;标签压缩;更新标签。

公式表示为:

看到这大家是不是想到了什么?是不是和 GCN、GraphSAGE 等 GNN 网络的公式差不多?都是分为两步:聚合和结合:

对于 GraphSAGE 来说:

对于 GCN 来说:

GNN 是通过递归更新每个节点的特征向量,从而捕获其周围网络结构和节点的特征,而 WL-test 也类似,那么 GNN 和 WL-test 之间又有什么关系呢?

##2.3 Upper limit of GNN performance

结论也在文章的开头说了,WL-test 是 GNN 的性能上界。我们这里来证明一下。

直观来说,一个好的 GNN 的算法仅仅会在两个节点具有相同子树结构的情况下才会将其映射到同一位置。由于子树结构是通过节点邻域递归定义的,所以我们可以将分析简化为这样一个问题:GNN 是否会映射两个邻域(multiset)到相同的 Representation?一个好的 GNN 永远不会将两个不同领域映射得到相同的 Representation。即,「聚合模式必须是单射」。因此,我们可以将 GNN 的聚合方案抽象为一类神经网络可以表示的多重集函数,并分析其是否是单射。

「引理 1」:对任意两个非同构图 和 ,如果存在一个图神经网络 将图 和 映射到不同的 Embedding 向量中,那么通过 WL-test 也可以确定 和 是非同构图。

其证明方法用的是反证法:假设在迭代 k 此后,图神经网络有可以判断,但 WL 判断。那么在第 0 到 k-1 的迭代过程中, 和 都需要具有相同 Multiset(如果是不同的 Multiset 会得到唯一的新标签)。这也间接说明 和 的在之前的迭代过程中除了自身节点相同外,邻居节点也相同,而 GNN 的聚合过程中,AGGREGATE 和 COMBINE 函数都是不变的,即对于相同的输入会得到相同的输出,所以会一直保持一种迭代状态:,GNN 的 READOUT 函数对顺序不敏感,所以最终会得到 和 两图同构,与条件出现了矛盾。

3.GIN

由引理 1 可知,WL-test 是 GNN 的性能上界,那么是否存在一个与 WL-test 性能相当的 GNN 呢?答案是肯定的。

「定理 1」:设 GNN 有 ,多于可以通过 WL-test 判断的两个图 和 ,在 GNN 层数多的情况下,满足以下情况时,GNN 也可以判断两个图:

a)GNN 的节点聚合和更新函数通过以下公式进行迭代:

其中,f 作用在 multisets 上, 为「单射函数」

b)GNN 作用在 multiset 的 READOUT 函数也是「单射」的。

证明就不证了,感兴趣的可以去看论文附录。

通过定理 1 我们看出 GNN 和 WL-test 的主要区别在于「单射函数」中。顺利成章的,作者设计一个满足单射函数的图同构网络(Graph Isomorphism Network,以下简称 GIN)。

3.1 AGGREGATE

为了构建出单射的多重集聚合函数,作者提出了一个深度多重集(Deep Multiset),旨在通过神经网络来的对通用的多重集函数进行参数化。

「引理 2」:设 可数,那么会存在一个函数 使得对于任意有限多重集 都有 。此外,任意一个多重集函数 g 可以被分解为 。

作者给出的引理 2 指出了求和聚合器实际上也可以表示为多重集上的单射函数。

「推论 1」:设 可数,那么存在一个函数 ,对于任意实数 和任意有限多重集 都有 。此外,任意函数 g 都可分解为 。

引入多层感知机来学习函数 ,便可得到 GIN 最终的基于 SUM+MLP 的聚合函数:

  • MLP 可以近似拟合任何函数;
  • 第一次迭代时,如果输入的是 One-hot 编码,在求和前不需要用 MLP,因为 Ont-hot 向量求和后依旧是单射的;

3.2 READOUT

我们知道 READOUT 函数的作用是将图中节点的 Embedding 映射成整张图的 Embedding。于是作者提出了基于 SUM+CONCAT 的 READOUT 函数,对每次迭代得到的所有节点的特征求和得到该轮迭代的图特征,然后再拼接起每一轮迭代的图特征来得到最终的图特征:

4.Comparation

这一节我们分析下为什么诸多 GNN 变体没有 GIN 能力强,其实也就是分析下 GNN 变体不满足单射的原因。

4.1 Layer

首先,大部分 GNN 变体的层数都比较少,大部分都只有一层。单层感知机的行为就像是线性映射,此时 GNN 层对退化为简单的对领域特征求和。虽然我们可以证明在有偏执项和足够多的输出维度的情况下,单层感知机是可以完成多重集的单射的,但这种映射无法捕获图结构的相似性。并且对于单层感知机来说,有时会出现数据拟合严重不足的情况,其拟合能力无法与 MLP 相提并论,并且在测试精度上往往比具有 MLP 的 GNN 表现更差。

4.2 Structures

其次,对于 sum 操作来说,mean 和 max 池化操作可能会混淆某些结构,以下图为例:

设节点以颜色为标签,即 r g b。

  • 对于图 a 来说,max 和 mean 池化操作无法区分其结构,聚合邻居节点后最终标签都为 b,而对于 sum 操作来说 可以得到 2b 和 3b;
  • 对于图 b 来说,max 操作无法区分,而 mean 和 sum 可以区分;
  • 对于图 c 来说,max 和 mean 都无法区分,而 sum 依然可以区分。

由此可见,max 和 min 并不满足单射性,故其性能会比 sum 差一点。

4.3 Information

那么 sum 、mean 和 max 三者分别可以捕捉到什么信息呢?以下图为例子:

  • sum 可以捕捉到全部到所有的标签及其数量,mean 只能学习到标签的相对分布信息(标签比例),max 则偏向于学习具有代表性的信息(标签集合);
  • sum 可以学到网络结构信息,而其他不可以。

5.Experiments

简单看一下实验部分。

下图为不同条件 GNN 的拟合能力,可以看到 GIN 的最终结果还是比较接近于 ML 的:

再看一下泛化能力:

  • GIN-0 比 GIN- 的性能稍微好一点,可能是因为模型简单的缘故;
  • GIN 和 SUM-GNN 可以捕捉到图结构,所以效果不错;

6.Conclusion

总结:本文首先证明了 WL-test 是目前所有 GNN 的性能上界,并通过分析目前 GNN 出现的问题提出了构建有效的 GNN 的方法,即使用单射函数,同时也利用 MLP 拟合单射函数设计出一个新的架构模型 GIN,并通过实验证明 GIN 的性能逼近 WL-test。

7.Others

本篇文章只介绍了一维的 WL-test,其他的维度的暂时没有介绍。

在一维 WL-test 中,下面这两张图是非同构的,但是在二维 WL-test 中下面这两图是同构的。

有学者证明出 WL-test 的维度最多为 3 维,感兴趣的同学可以自己去探索。

8.Reference

  1. 《HOW POWERFUL ARE GRAPH NEURAL NETWORKS?》
  2. 《Weisfeiler-Lehman Graph Kernels》
  3. 《Combinatorial Properties of the Weisfeiler-Leman Algorithm》
  4. 《The Weisfeiler-Leman Dimension of Planar Graphs is at most 3》
  5. 《GIN 图同构网络 ICLR 2019 论文详解》
  6. 《weihua916/powerful-gnns》
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-04-27,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 图神经网络与推荐系统 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
深度学习核心模型架构解析:图神经网络(GNN)的消息传递与邻域聚合的泛函逼近理论
在人工智能领域,图神经网络(Graph Neural Networks, GNN)已经成为处理非欧几里得空间数据的革命性工具。这种特殊的深度学习架构能够直接对图结构数据进行建模,突破了传统神经网络只能处理规则网格数据(如图像、文本序列)的限制。截至2025年,GNN已在社交网络分析、分子结构预测、推荐系统等众多领域展现出惊人的应用潜力。
用户6320865
2025/08/27
1390
深度学习核心模型架构解析:图神经网络(GNN)的消息传递与邻域聚合的泛函逼近理论
Weisfeiler-Lehman图同构测试及其他
注意这里和原ppt不同,2-WL其实应该是无法区分这个六边形和两个三角形的。(一种说法是1-WL和2-WL的能力其实是一样的。)
全栈程序员站长
2022/07/23
9870
Weisfeiler-Lehman图同构测试及其他
​GNN教程:Weisfeiler-Leman算法!
GNN模型现在正处于学术研究的热点话题,那么我们不经想问,GNN模型到底有多强呢?
数据派THU
2020/12/31
2.2K0
​GNN教程:Weisfeiler-Leman算法!
关于Weisfeiler-Lehman算法的话题(一)
作者简介:如算法“百晓生”,熟悉各类算法原理,典故,应用,背后八卦,心中有一本算法的“兵器谱”,又如算法“扫地僧”利用所在各公司的各种资源,或依托具体业务积累落地经验,或求教于业界大佬行业经验,或旁听于公司邀请的科学家。偶有所得,便欣然忘食。平生所爱,唯算法和剑法,情不知所起,一往而深。
青萍快剑
2022/02/12
1.7K0
关于Weisfeiler-Lehman算法的话题(一)
构建 GNN 的「统一场」:从与 WL 算法、组合优化算法的联系看 GNN 的表达能力
近年来,图神经网络(GNN)领域內可谓百家争鸣。然而,真正要想在图神经网络的设计上有革命性的创新,不可避免地要对图的本质问题进行深入探究。
AI科技评论
2020/04/14
1.7K0
构建 GNN 的「统一场」:从与 WL 算法、组合优化算法的联系看 GNN 的表达能力
【GNN】大热下的 GNN 研究面临哪些“天花板”?未来的重点研究方向又在哪?
作为脱胎于图论研究的热门研究领域,图神经网络(GNN)与经典的 WL 算法有诸多相似之处。众所周知,强大的 WL 算法对于聚合函数的单射性质有很强的要求,那么强大的 GNN 应该具备哪些性质呢?研究大热下, GNN 面临哪些“天花板”?未来的重点研究方向又在哪?
zenRRan
2020/05/09
7280
CS224W 18.1-Limitations of Graph Neural Network
视频地址,课件和笔记可见官网。 前面一直在说GNN非常吊,效果非常好. GNN就没有缺点和局限? 这一节就聊聊GNN的局限 GNN的关键在于对图结构的捕获,也就是邻居的聚合. 但是,现存的GNN有两大
Houye
2020/04/07
8780
CS224W 18.1-Limitations of Graph Neural Network
图神经网络性能提升方法综述
图神经网络(GNN)是深度学习领域的一个重要模型,已广泛应用于推荐系统、计算机视觉、自然语言处理、分子分析、数据挖掘和异常检测等现实场景。GNN在从图形数据中学习方面表现出优越的能力,其变体已被广泛应用。
算法进阶
2023/10/23
9710
图神经网络性能提升方法综述
GRAPH-BERT: 图表示学习只需要注意力(附GitHub代码链接)
本文针对图神经网络中存在的假死现象以及过平滑的问题,提出了GRAPH-BERT, 这种方法不需要依赖卷积、聚合的操作就可以实现图表示学习。主要的思路是将原始图分解成以每一个节点为中心的多个子图,只利用attention机制在子图上进行表征学习,然后利用attention去学习结点表征,而不考虑子图中的边信息;另一方面也解决了大规模图的效率问题。这里提出三种计算Distance的方法,结合之前普渡大学Prof. Lipan的工作,可以看出来distance在解决GNN问题的重要作用。
DrugOne
2021/02/02
3K0
GRAPH-BERT: 图表示学习只需要注意力(附GitHub代码链接)
Transformer在GNN的前沿综述
Transformer架构在自然语言处理和计算机视觉等领域表现出色,但在图级预测中表现不佳。为了解决这个问题,本文介绍了Graphormer,一种基于标准Transformer架构的图表示学习方法,在广泛的图表示学习任务中取得了优异成绩,特别是在OGB大规模挑战中。
算法进阶
2024/01/23
1.2K0
Transformer在GNN的前沿综述
【ICML2022】深入探讨置换敏感图神经网络
来源:专知本文为论文,建议阅读5分钟在这项工作中,我们通过排列组设计了一种高效的排列敏感聚合机制,捕获相邻节点之间的成对关联。 邻接矩阵排列的不变性,即图同构,是图神经网络(GNNs)的首要要求。通常,聚合消息时,节点排列上的不变操作可以满足这个前提条件。但是,这种不变性可能会忽略相邻节点之间的关系,从而影响GNN的表达能力。在这项工作中,我们通过排列组设计了一种高效的排列敏感聚合机制,捕获相邻节点之间的成对关联。我们证明了我们的方法严格地比二维Weisfeiler-Lehman (2-WL)图同构检验更
数据派THU
2022/06/07
2330
【ICML2022】深入探讨置换敏感图神经网络
「几何深度学习」从古希腊到AlphaFold,「图神经网络」起源于物理与化学
---- 新智元报道   编辑:LRS 【新智元导读】最近大火的「几何深度学习」到底是怎么出现的?创始人Michael Bronstein发布系列长文,带你从头开始回忆。 2016年,牛津大学教授、Twitter的图机器学习研究负责人Michael Bronstein发布了一篇论文,首次引入几何深度学习(Geometric Deep Learning, GDL)一词,试图从对称性和不变性的视角出发,从几何上统一CNNs、GNNs、LSTMs、Transformers等典型架构的方法。 论文链接:ht
新智元
2022/08/26
4210
「几何深度学习」从古希腊到AlphaFold,「图神经网络」起源于物理与化学
ICLR2021 | 初探GNN的表示能力
GNN 表达能力的研究一直比较高深莫测的方向,刚入门的小白面对大量的数学公式和推导过程,肝完了还是不能明白其意义所在,心里出现了无数个小问号。但在我看来这个方向是实现从简单的使用GNN转变到深层次理解GNN的基石。莫慌,这篇文章会有大量的前置知识,以比较友好的方式带大家涉足 GNN 的表达能力,小编带你们:1)回答一条疑问,既然我们会使用 GNN了,那研究 GNN 的表达有啥实际意义?2)告诉大家 GNN 的表达能力是啥,通常用什么办法去衡量它;
Houye
2021/05/08
1.3K0
ICLR2021 | 初探GNN的表示能力
ICML23 || 从关系池化到子图GNN:更具表现力的GNN通用框架
论文题目: From Relational Pooling to Subgraph GNNs: A Universal Framework for More Expressive Graph Neural Networks
Houye
2023/09/18
6980
ICML23 || 从关系池化到子图GNN:更具表现力的GNN通用框架
图神经网络的困境,用微分几何和代数拓扑解决
选自towardsdatascience 作者:Michael Bronstein 机器之心编译 编辑:Juniper 微分几何和代数拓扑在主流机器学习中并不常见。在本系列文章中,作者展示了如何使用这些领域的工具重新解释图神经网络并解决一些常见困境。 本文的作者是 Twitter 首席科学家、DeepMind 人工智能教授 Michael Bronstein。以下是博客原文。 对称,无论从广义还是狭义的角度讲,都是人类一直以来试图理解和创造秩序与美的一种观念。 ——Hermann Weyl Herma
机器之心
2022/03/28
8490
Graph-Bert:没有我Attention解决不了的
最近要做一个图相关的项目,之前没怎么接触过图网络,就从头开始学习了一下,后面有时间也会整理分享。这里顺便推荐一下清华大学唐杰老师的一个分享:「图表示学习和图神经网络的最新理论进展」,主要介绍了图神经网络及其在认知推理方向的一些进展。
NewBeeNLP
2020/08/26
2K0
中科院计算所沈华伟:图神经网络表达能力的回顾和前沿
6月23日,中科院计算所的研究员、智源研究院的智源青年科学家沈华伟老师在第二届北京智源大会上做了《图神经网络的表达能力》的报告。
AI科技评论
2020/06/29
1.1K0
中科院计算所沈华伟:图神经网络表达能力的回顾和前沿
GitHub图深度学习引用Top 10文章,你都看过吗?
Github地址:https://github.com/naganandy/graph-based-deep-learning-literature
AI科技大本营
2019/07/23
2K0
图神经网络3-图神经网络的基础、前言和应用
循环神经网络(1997)和卷积神经网络(2012):擅长处理图像等欧式数据或者文本和信号等序列数据
皮大大
2023/11/23
2780
Michael Brostein 最新几何深度学习综述:超越 WL 和原始消息传递的 GNN
如何突破基于 WL 测试和消息传递机制的 GNN 的性能瓶颈?且看几何深度学习旗手、牛津大学教授 Michael Brostein 如是说。 编译丨OGAI 编辑丨陈彩娴 图可以方便地抽象关系和交互的复杂系统。社交网络、高能物理、化学等研究领域都涉及相互作用的对象(无论是人、粒子还是原子)。在这些场景下,图结构数据的重要性日渐凸显,相关方法取得了一系列初步成功,而一系列工业应用使得图深度学习成为机器学习方向的热门研究话题之一。 图注:通过图对复杂系统的关系、交互进行抽象。例如,「分子图」中构成分子的原子至
AI科技评论
2022/03/10
5300
推荐阅读
相关推荐
深度学习核心模型架构解析:图神经网络(GNN)的消息传递与邻域聚合的泛函逼近理论
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档