推荐5篇 NeurIPS 2020 接收的5篇 GNN 相关论文.分别为: 1. 随机游走图神经网络 2. 图神经网络中基于路径积分的卷积和池化算法 3. 大型随机图上的图卷积网络的收敛性和稳定性 4. Erdős Goes Neurical:一种图上组合优化的无监督学习框架 5. 用有限状态自动机层学习图结构 6. GNN 学习资料
https://www.lix.polytechnique.fr/~nikolentzos/files/rw_gnns_neurips20
大多数 GNN 属于消息传递神经网络(MPNNs)。这些模型使用迭代邻域聚合方案来更新顶点表示。然后,为了计算图的向量表示,它们使用一些置换不变函数来聚合顶点的表示。因此,MPNNs 将图视为集合,似乎忽略了从图拓扑中产生的特征。 此文提出了一种更直观、更透明的图结构数据结构,称为随机游走图神经网络(RWNN)。
所采用的随机游走核是可微的,因此,所提出的模型是端到端可训练的。 在合成数据集上演示了该模型的透明性。此外,在图分类数据集上对该模型进行了实证评估,结果表明该模型取得了较好的性能。
https://arxiv.org/abs/2006.16811
图神经网络(GNNs)将传统神经网络的功能扩展到图结构数据。与CNN类似,图的卷积和池化的优化设计是成功的关键。
借鉴物理学的思想,提出了一种基于路径积分的图神经网络(PAN),用于图的分类和回归任务。
实验结果表明,PAN在各种图形分类/回归任务上都达到了最先进的性能,其中包括作者提出的一个新的统计力学基准数据集,以促进GNN在物理科学中的应用。
连续空间的原始路径积分公式(左)和图的离散版本(右)之间的示意图类比
图分类任务的性能比较
https://arxiv.org/abs/2006.01868
通过分析图卷积网络(GCNS)在随机图标准模型上的行为,研究GCNS的性质,其中节点用随机隐变量表示,边根据相似核来绘制。这使得我们可以通过考虑更自然的几何层面来克服处理离散概念的困难,例如非常大的图上的同构。
https://arxiv.org/abs/2006.10643
组合优化(CO)问题对于神经网络来说是出了名的挑战,特别是在没有标记实例的情况下。
此文针对图上的CO问题提出了一种无监督学习框架。受Erdős概率方法的启发,使用神经网络来参数化集合上的概率分布。
重要的是,作者证明了当网络针对适当选择的损失进行优化时,学习的分布以受控的概率包含符合组合问题约束的低成本积分解。然后对存在的概率证明进行随机化,以解码所需的解。
作者证明了该方法在获得最大团问题的有效解和执行局部图聚类方面的有效性。提出的方法在真实数据集和合成硬实例上都取得了有竞争力的结果。
https://arxiv.org/abs/2007.04929
基于图的神经网络模型在许多领域产生了强大的结果,部分原因是图提供了以图中节点之间的关系结构(边)的形式编码领域知识的灵活性。实际上,边既用于表示内在结构(例如,程序的抽象语法树),也用于表示有助于下游任务推理的更抽象的关系(例如,相关程序分析的结果)。 这项工作研究了从内在图结构中学习导出抽象关系的问题。
此外,作者将GFSA层与在变量误用程序理解任务中端到端训练的更大的基于图形的模型相结合,发现使用GFSA层比使用手工设计的语义边或其他基线方法添加学习的边类型具有更好的性能。
https://github.com/Jhy1993/Awesome-GNN-Recommendation
https://www.epubit.com/courseDetails?id=PCC72369cd0eb9e7
图机器学习(时下炙手可热新技术/8章3大模型应用)。此课程分为入门、中级和应用3个部分,深入浅出,来讲解当今最炙手可热的图机器学习。