首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >CS224W 18.1-Limitations of Graph Neural Network

CS224W 18.1-Limitations of Graph Neural Network

作者头像
Houye
发布于 2020-04-07 07:54:50
发布于 2020-04-07 07:54:50
8390
举报
文章被收录于专栏:图与推荐图与推荐

视频地址,课件和笔记可见官网。

前面一直在说GNN非常吊,效果非常好. GNN就没有缺点和局限?

这一节就聊聊GNN的局限

GNN的关键在于对图结构的捕获,也就是邻居的聚合. 但是,现存的GNN有两大缺点

  1. 但是在某些情况下, 不同的图结构,GNN可能无法区分(当然有些GNN是可以区分的). 注意,这里做了非常多的简化, 所有节点的特征认为都是一样的, 用黄色颜色表示.

这里就引发我们的思考了.(1)即使简化后的理论分析或者证明可以说明GNN的局限性.但是,我们在实际使用GNN的时候,节点的特征往往是不同的. 这时候,GNN能区别不同的图结构吗?? (2)任意图结构都不能区分吗? 这肯定是不可能的. 应该说GNN对某些图结构不可区分. 这里说的是在图非同构的的情况下,依然无法区分. 后面会详细介绍

2. 另一个就是不够鲁邦,容易收到噪音的影响. 至于Noise的话,引入邻居的权重聚合可以一定程度上解决,比如GAT.

-图同构测试 graph isomorphism test就是用来测试两个图的结构是否一样.

这是一个非常非常难的问题 NP-hard的

-那么,如果用GNN来做图同构测试可以吗?

-回顾下之前GNN的聚合过程,可以展开成一个子树结构,按层来聚合.

根据展开后的邻居子树的不同, GNN可以把不同的节点映射为不同的表示.

-两个子树结构的例子

  • 这里引入一个 单射 Injectivity 的概念. 简单来说就是:一个输入会映射到一个输出; 不同输出映射到不同的输出.
  • 对应到GNN中就是,一个节点的子树结构(输入)不同,那么其向量表示(输出)就不同.

-GNN的整个聚合过程如果要满足"单射"的话,那么每一步(或者每一层)子树的聚合都要是单射的.

这个很好理解, f(x)和g(x)都是单射的, 那么f(g(x))也是单射的.

这里先针对一层的聚合函数是否是"单射"进行研究. 这里先研究函数的输入:节点的邻居集合.

这里先介绍一个概念 multi-set.

计算专业的人对set的概念应该都很清楚,毕竟写代码的时候经常会用到

multi-set和set差不多, 但是multi-set里面允许有重复的元素

比如下图中的第2个multi-set包含了2个黄色,1个蓝色

为什么要搞multi-set呢?其实是为了更好的描述节点的邻居集合.

现在GNN的输入有了比较清晰的定义

-这里我们先看看GCN中的对邻居做平均 mean-pooling是不是单射的

-GCN中的Mean-pooling不是单射的为什么呢?

假定两个不同的节点, 节点1的邻居是1个黄色,1个蓝色, 节点2的邻居是2个黄色,2个蓝色,

如果对两个节点的邻居做mean pooing,结果都是0.5个黄色+0.5个蓝色,也就是说无法区分节点1和2.

-这里在稍微延伸下, 还有哪些聚合方式是非单射的

-那么,到底什么样的函数是单射呢?

-很自然的, 这里的\phi和f都可以用NN来做

-这里就引入一篇ICLR2019的 GIN了,一篇可以实现单射的GNN

-还是之前的例子. 下面两个图, GCN和GraphSAGE是无法区分的

那么我们看看GIN的Sum pooling是怎么区分的?

可以看出来对于不同的子树结构, GIN聚合出了不同的表示.

比如右边的4棵子树(对应4个节点的邻居展开), 结构不同,最后的节点表示也是有4种.进而整个图的表示也是不同的. 这样,GIN就可以把不同的图结构进行区分.

-上面的例子说明了GIN非常厉害,通过在multi-set上的injective聚合来实现对图结构的精准区分.

但是,GIN为什么会这么强呢?

-回忆我们之前说的图同构问题. 其实对于图同构的问题,可以通过WL测试来检验两个图是否是同构的.

-那么, GIN这么吊也能区分, 和WL test有什么关系呢?

这里作者分了3步来介绍WL test

WL test第一步, WL test也要对邻居进行展开, 生成一颗子树.

可以看出,GNN中的邻居聚合过程和WLtest的过程非常相似.

下图更加具体一点. 两者都是将图展开为子树结构,然后进行分析.

WL test第二步: 对子树进行分类整理,也就是所谓的counts different colors.

左边是4颗一模一样的子树

右边是2颗紫色子树, 1颗蓝色子树,1颗绿色子树.

-WL test第三步 比较整理后的结果.如果一样,两个图就是同构的

-这里再看一个WL test的例子(引自CSDN-专业IT技术社区-登录)

(a)网络中每个节点有一个label,如图中的彩色的1,2,3,4,5

(b)标签扩展:做一阶广度优先搜索,即只遍历自己的邻居。比如在图(a)网络G中原(5)号节点,变成(5,234),这是因为原(5)节点的一阶邻居有2,3和4

(c)标签压缩:仅仅只是把扩展标签映射成一个新标签,如 5,234 => 13

(d)压缩标签替换扩展标签

(e)数标签:比如在G网络中,含有1号标签2个,那么第一个数字就是2。这些标签的个数作为整个网络的新特征

WL test的复杂度是O(hm),其中h为iteration次数,m是一次iteration里multiset的个数。

-正是由于WL test和GIN的操作非常像,所以GIN的能力能够和WL test一样强.

-WL test非常厉害,但是偶尔有些情况也是不work的 这里给了一个WL test不work的例子.

-下图展示了GIN的分类能力

最上面那条横线代表WL test, 准确度是1.

这里3种GNN只有GIN能达到WL test的准确度.

也就是说,实验结果和前面的分析完全符合.

-还记得前面在分析GNN的能力的时候,我们做了一个非常强的假设.也是就所有的节点的特征都是一样的.

下图可以看到,在满足特征一致假设的情况下, GIN远远优于GCN和GraphSAGE.

在节点特征存在的时候,GIN的优势就没有那么大了.

这里补充一下为什么Mean和Max的聚合(对应下图(a))对于无特征或者说所有节点特征一样的情况下,为什么GNN就失效了.

-最后总结一下

大部分的GNN都不是单射的,因此,其对不同图结构的判别能力比较差.

GIN是单射的,因此其能力和WL test一样强.

截止到这里,GNN第一个缺陷就说完了.

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-03-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 图神经网络与推荐系统 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
【GNN】WL-test:GNN 的性能上界
今天学习斯坦福大学同学 2019 年的工作《HOW POWERFUL ARE GRAPH NEURAL NETWORKS?》,这也是 Jure Leskovec 的另一大作。 我们知道 GNN 目前主
Houye
2020/05/08
2.8K0
【GNN】WL-test:GNN 的性能上界
​GNN教程:Weisfeiler-Leman算法!
GNN模型现在正处于学术研究的热点话题,那么我们不经想问,GNN模型到底有多强呢?
数据派THU
2020/12/31
2.1K0
​GNN教程:Weisfeiler-Leman算法!
CS224W 8.2-Graph Neural Network
本小节从GCN过渡到graphsage的过程是非常自然,二者的不同之处仅仅是box处做了一些修改:
Houye
2020/04/07
3990
CS224W 8.2-Graph Neural Network
Weisfeiler-Lehman图同构测试及其他
注意这里和原ppt不同,2-WL其实应该是无法区分这个六边形和两个三角形的。(一种说法是1-WL和2-WL的能力其实是一样的。)
全栈程序员站长
2022/07/23
9060
Weisfeiler-Lehman图同构测试及其他
斯坦福Jure Leskovec清华演讲:图神经网络研究最新进展(附PPT下载)
昨日,除了刷屏的“双十一”与AAAI开(放)奖(榜),斯坦福大牛Jure Leskovec正好到访清华,学术君的朋友圈是一片喜气洋洋呐……
大数据文摘
2019/11/13
1.9K0
中科院计算所沈华伟:图神经网络表达能力的回顾和前沿
6月23日,中科院计算所的研究员、智源研究院的智源青年科学家沈华伟老师在第二届北京智源大会上做了《图神经网络的表达能力》的报告。
AI科技评论
2020/06/29
1.1K0
中科院计算所沈华伟:图神经网络表达能力的回顾和前沿
CS224W 10.1-Deep Generative Models for Graphs
【油管英字】CS224w 斯坦福图网络机器学习2019_哔哩哔哩 (゜-゜)つロ 干杯~-bilibili
Houye
2020/04/07
6680
CS224W 10.1-Deep Generative Models for Graphs
【阅读】Distributed Graph Neural Network Training: A Survey——翻译
图神经网络(GNNs)是一种在图上学习的深度学习模型,并已成功应用于许多领域。尽管 GNN 有效,但 GNN 有效地扩展到大型图仍然具有挑战性。作为一种补救措施,分布式计算成为训练大规模 GNN 的一种有前途的解决方案,因为它能够提供丰富的计算资源。然而,图结构的依赖性增加了实现高效分布式 GNN 训练的难度,导致大量通信和工作负载不平衡。近年来,在分布式 GNN 训练方面做出了很多努力,并提出了一系列训练算法和系统。然而,缺乏对从图处理到分布式执行的优化技术的系统回顾。在本次调查中,我们分析了分布式 GNN 训练的三大挑战,即海量特征通信、模型精度损失和工作负载不平衡。然后,我们为分布式 GNN 训练中的优化技术引入了一种新的分类法,以应对上述挑战。新分类法将现有技术分为四类,即 GNN 数据分区、GNN 批处理生成、GNN 执行模型和 GNN 通信协议。我们仔细讨论了每个类别中的技术。最后,我们分别总结了用于多 GPU、GPU 集群和 CPU 集群的现有分布式 GNN 系统,并讨论了可扩展 GNN 的未来发展方向。
小锋学长生活大爆炸
2023/03/01
9470
【阅读】Distributed Graph Neural Network Training: A Survey——翻译
构建 GNN 的「统一场」:从与 WL 算法、组合优化算法的联系看 GNN 的表达能力
近年来,图神经网络(GNN)领域內可谓百家争鸣。然而,真正要想在图神经网络的设计上有革命性的创新,不可避免地要对图的本质问题进行深入探究。
AI科技评论
2020/04/14
1.7K0
构建 GNN 的「统一场」:从与 WL 算法、组合优化算法的联系看 GNN 的表达能力
Cs224W 8.1-Graph Neural Network
Graph Neural Network,可能是整个CS224W中大家最关心的一节了. 毕竟现在图神经网络大火,各个领域都在尝试引入GNN来做一些事情.
Houye
2020/04/07
5850
Cs224W 8.1-Graph Neural Network
中山大学邹青松团队提出DGCL模型,通过双图神经网络对比学习预测分子性质
在化学分子数据集中,有大量的未标记数据,而标记数据的比例相对较小。缺乏标签限制了监督学习方法的在分子性质预测任务上的直接适用性。自监督学习(SSL)使模型能够从未标记的数据中学习,在分子性质预测领域得到了广泛的关注。对比学习(CL)作为一种有效的SSL范式,在各个领域都表现出卓越的能力,现有的许多分子表示的CL方法采用不同的策略来提高预测精度。然而,这些方法可能会遇到表征之间的信息重叠,潜在地限制了模型学习能力的增强,缺乏基于已建立的先验知识生成增强表示的鲁棒策略。
智药邦
2024/11/13
3160
中山大学邹青松团队提出DGCL模型,通过双图神经网络对比学习预测分子性质
图神经网络性能提升方法综述
图神经网络(GNN)是深度学习领域的一个重要模型,已广泛应用于推荐系统、计算机视觉、自然语言处理、分子分析、数据挖掘和异常检测等现实场景。GNN在从图形数据中学习方面表现出优越的能力,其变体已被广泛应用。
算法进阶
2023/10/23
9200
图神经网络性能提升方法综述
Graph Neural Network(GNN)综述
图(graph)是一个非常常用的数据结构,现实世界中很多很多任务可以描述为图问题,比如社交网络,蛋白体结构,交通路网数据,以及很火的知识图谱等,甚至规则网格结构数据(如图像,视频等)也是图数据的一种特殊形式,因此图是一个很值得研究的领域。
SIGAI学习与实践平台
2019/05/16
2.4K0
Graph Neural Network(GNN)综述
CS224w图机器学习(七):Graph Neural Networks
本文主要介绍CS224W的第八课,图神经网络。上一篇章的主题是图表征学习,主要在讲Node Embedding,核心步骤包含编码网络和相似性度量。本文则是从图神经网络的角度出发,展开一些编码网络的深度方法。
慎笃
2021/09/15
5940
【GNN】大热下的 GNN 研究面临哪些“天花板”?未来的重点研究方向又在哪?
作为脱胎于图论研究的热门研究领域,图神经网络(GNN)与经典的 WL 算法有诸多相似之处。众所周知,强大的 WL 算法对于聚合函数的单射性质有很强的要求,那么强大的 GNN 应该具备哪些性质呢?研究大热下, GNN 面临哪些“天花板”?未来的重点研究方向又在哪?
zenRRan
2020/05/09
7210
一文轻松了解Graph Neural Networks
图结构数据在各个领域都很常见,例如{分子、社会、引用、道路}网络等,这些只是可以用图表示的大量数据中的一小部分。随着机器学习的进步,我们见证了在可用数据上应用智能算法的潜力。图神经网络是机器学习的一个分支,它以最有效的方式建立图数据的神经网络。
Datawhale
2020/03/04
5090
一文轻松了解Graph Neural Networks
图推荐系统综述:A Survey of Graph Neural Networks for Recommender System
第一次整理综述,作为深入这个方向的开始。应该不如AI整理的详细全面,不过这一篇文章主要是阅读时整理的一些对我来说有帮助的点,供自己未来存档回顾细节。
NewBeeNLP
2024/05/06
1.7K0
图推荐系统综述:A Survey of Graph Neural Networks for Recommender System
TNNLS | GNN综述:A Comprehensive Survey on Graph Neural Networks
题目:A Comprehensive Survey on Graph Neural Networks
Cyril-KI
2022/11/01
2K0
TNNLS | GNN综述:A Comprehensive Survey on Graph Neural Networks
【综述笔记】Graph Neural Networks in Recommender Systems
如今推荐系统的研究非常火热,GNN也在很多领域表现优异。推荐系统主要的挑战是从历史交互(historical interactions)和边信息(side information)中学习有效的用户(user)和物品(item)表示,由于很多信息具有图结构,而且GNN擅长表示学习,所以很多工作将GNN应用到推荐系统中。
guichen1013
2020/12/22
1.7K0
【综述笔记】Graph Neural Networks in Recommender Systems
ICLR2021 | 初探GNN的表示能力
GNN 表达能力的研究一直比较高深莫测的方向,刚入门的小白面对大量的数学公式和推导过程,肝完了还是不能明白其意义所在,心里出现了无数个小问号。但在我看来这个方向是实现从简单的使用GNN转变到深层次理解GNN的基石。莫慌,这篇文章会有大量的前置知识,以比较友好的方式带大家涉足 GNN 的表达能力,小编带你们:1)回答一条疑问,既然我们会使用 GNN了,那研究 GNN 的表达有啥实际意义?2)告诉大家 GNN 的表达能力是啥,通常用什么办法去衡量它;
Houye
2021/05/08
1.3K0
ICLR2021 | 初探GNN的表示能力
推荐阅读
相关推荐
【GNN】WL-test:GNN 的性能上界
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档