前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >图机器学习 2.2-2.4 Properties of Networks, Random Graph

图机器学习 2.2-2.4 Properties of Networks, Random Graph

作者头像
Houye
发布于 2020-04-07 08:01:39
发布于 2020-04-07 08:01:39
97500
代码可运行
举报
文章被收录于专栏:图与推荐图与推荐
运行总次数:0
代码可运行

图机器学习 2.1 Properties of Networks, Random Graph

本文继续学习斯坦福CS224W 图机器学习的第二课,首发在公众号【图与推荐】。

前面介绍了用来衡量一个图模型的几个主要属性,并且应用于实际中:msn人际关系图和PPI网络之后发现一些属性的值很接近

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
特殊->一般->建立模型

那么现在考虑一般情况下的模型:考虑最简单的图模型

【注意这里考虑的是无向图】我们用G_{np}来表示具有n个节点且每个边(u,v)都是服从概率p的独立同分布的无向图

img

注意】n和p不能唯一决定图模型!

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
也就是说图其实是随机过程的一个结果,下图是给定n,p值的一个例子

img

那么现在对于这么general的一个图,我们来看看前面提到的那些属性的值是多少

(1)度分布(degree distribution)

img

  • P(k):选定了一个节点,于是图中剩下n-1个节点,从剩下的节点中选取k个节点乘以这k个节点有k个边(也就是度为k)的概率
  • 有了度分布,可以发现其是二项式的
  • 既然是二项式的我们就能得到其期望和方差

img

方差和期望的比值说明:当网络规模逐渐变大,平均值会越来越集中

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
对应了大数定理

img

补充上一节的一个内容:注意到度的直方图有利于我们判断图的结构

(2)聚合系数

img

这里的计算比较显然,但是注意到E[Ci]可以发现当期望是一个固定值时,随着图规模越来越大,随机图的聚合系数会趋近于0。

下面的学习部分,需要记住随机图的聚合系数是p】

讨论完了度分布和聚合系数,下面来看随机图的路径长度,这里通过“扩展(expansion)“来衡量

(3)expansion

什么是扩展数?

img

简单理解为:任取图中节点的一个子集,相对应的从子集中离开的(也就是和这些节点相关的)最小节点数目

或者还可以理解为:为了让图中一些节点不具备连接性,需要cut掉图中至少多少条边?

(answer:需要至少cut掉alpha Num(节点)条edges)

扩展数alpha也是一个用来衡量鲁棒性的一个度量

(4)largest connected component(最大连接元)

什么是最大连接元?我们看下面这个图就一目了然

图中标红的部分就是最大连接元:连接最多节点的部分

图来源:

https://networkx.github.io/documentation/networkx-1.9/examples/drawing/giant_component.htmlnetworkx.github.io

最大连接元的用途/意义:展示随机图的“进化”过程

当聚合系数=0的时候:也就是没有edge,这时候是一个空图

当聚合系数=1度时候:就是一个“全连接”的图

那么当聚合系数从0变化到1的过程中发生了什么变化?【当平均度=1的时候,因为k=p(n-1),此时聚合系数c=p=1/(n-1),出现了一个大连接元,以此类推】

img

学习完了随机图中的四个重要属性,下面来看随机图的应用性如何,看看和MSN数据的对比

img

  • 之前说过度分布的直方图有利于判断图的结构,MSN和随机图的直方图差距还是很大的;
  • 平均路径:MSN和随机图的数据差不多
  • 平均聚合系数:差距很大,随机图的非常小
  • 最大连接元:很接近

综上来看,随机图的实际应用性如何?----不好!

img

从上面的属性比较可以看出:实际上的网络并不是随机的。

那么问题来了,既然如此又为什么要学习随机图呢?因为这是最简单也是最有效的学习和评估网络的方法!

随机性包罗万象,我们可以根据实际网络的特性来修改随机图来适应实际网络的需要

那么,如何让随机图实际应用性变强呢?

上一节说了随机图和实际网络还是有差距的:主要体现在聚合系数和度分布不一样

那么能不能对随机图进行一定的修改,使得重要的度量能和实际网络对应上呢?那么就要介绍这部分的主要内容:small-world model(我暂且翻译为小世界模型吧)

img

随机图的聚合系数很小,直径很大。这才是和真实网络最大的差异之处。所以能不能有【高聚合系数+小直径】?首先来分析聚合系数反应的本质是什么。

【高聚合系数反映了局部性】简单来说就是:社交网络中,我的朋友们互相也是认识的,如同下图

img

聚合系数和直径之间有一个矛盾之处在于:图的扩展(expansion)会使得保持度不变的情况下,直径越小也会导致聚合系数越小;而高聚合系数(高度连接的网络)却往往直径很大。那么怎么解决这个矛盾?基于以下两个思想:

(1)聚合反应局部性(2)随机性可以使得“捷径“出现

img

解决方案如下:

STEP 1:选择高聚合的网络

STEP 2:对每个边,以概率p修改边的终点(引入捷径)

img

这个“捷径”的方法很类似于数值计算中的“插值”:把节点作为插值节点,那么这里修改过的边就类似”线性插值“

从图上可以看出来,想要随机创造捷径是很简单不费力的。

反过来思考:聚合系数呢?社交网络中,我的朋友们互相也认识,所以聚合系数高,可是很难让我的朋友们互相“绝交”从而让聚合系数降下来。下图可以反应这个现象

横坐标是修改原有图的边位置的概率,纵坐标是聚合系数

从图中可以看到“高聚合系数+低路径长度”的区域是很大的

既然已经解决了随机图和实际网络的"gap“,那么现在我们看看这个被修改了的随机图,表示的是什么?

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
1)高聚合系数:我的大部分朋友们互相都认识
(2)低直径:但是我也有几个朋友在另一个城市,且他们和其他朋友互不认识

实际网络这样的情况还是很多的

第二节课的最后一部分:Kronecker图模型

前面一直都是在讨论随机图,上一节还说到通过对随机图引入随机“捷径”可以将随机图变为small-world model,那么这部分来讲讲如何生成大的真实图。

首先开门见山介绍背后的idea:就是递归(循环)图生成

基于现实观察:自相似性

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
比如不同的friendship的建立往往基于相同的文化、相似的爱好等等

很多物体和本身的一部分是很类似的,那么利用这个思想,可以给定初始的小的图,从而对其进行不断的扩张得到递归图

img

那么这个思想基于的工具是:kronecker积--定义如下

img

这个积的定义基本上大家在很多数学书上都有看到,这个积的结果是明显放大了原有的矩阵的阶。那么对于在图中的推广就是利用图的邻近矩阵来做kronecker积

那么什么是kronecker 图?--初始图(初始邻近矩阵)的循环kronecker积

img

这样的方法即自然又简单,但是呢,我们观察下面这个图

img

尽管到目前为止讨论的Kronecker结构产生的图具有一系列所需的特性,但其离散性质在程度和频谱数量上会产生“阶梯效应”,这仅仅是因为单个值具有较大的多重性。例如,图邻接矩阵的特征值的度分布和分布以及主要特征向量分量的分布(即“网络”值)都受此影响。这些数量是多重分布的,这导致具有多个重复的单个值。下图说明了阶梯效应(这部分来自lecture讲解人的论文https://dl.acm.org/doi/10.5555/1756006.1756039

img

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
会发现得到的图邻近矩阵的结构是很规则的(因为邻近矩阵的元素都是1或者0),
类似于具有规则结构的网格一样,这样的当然好(利于我们分析),
可是这样的图结构就很难capture真实复杂网络的信息了,那么要怎么办?-----答案是引入随机性!

这里在初始矩阵引入随机性的意思是:放松初始矩阵--邻近矩阵只有0或者1元素的条件,而是可以有[0,1]之间的元素,也就是

(1)初始矩阵的每个元素反应的是特定边出现的概率

(2)对初始矩阵进行Kronecker积运算,以获得较大的随机邻接矩阵,在该矩阵中,大型矩阵的每个元素数值再次给出了特定边出现在大图中的概率,这样的随机邻接矩阵定义了所有图的概率分布

img

那么这个方法存在一个缺陷:费时间!

所以下面给出了一种快速方法---基于的思想:还是kronecker积的本质--循环性

img

img

img

总结一下:随机kronerker图从数学上用公式来表示就是

img

img

这给了我们对随机Kronecker图的非常自然的解释:每个节点由一系列分类属性值或特征来描述。然后,两个节点链接的可能性取决于各个属性相似性的乘积。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-03-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 图神经网络与推荐系统 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
图机器学习 2.1 Properties of Networks, Random Graph
图网络的基础知识还是蛮深的,笔者听着觉得耗很多脑细胞。代码块里大部分是笔者个人理解,希望大家多指导和讨论~
Houye
2020/04/07
8050
图机器学习 2.1 Properties of Networks, Random Graph
CS224w图机器学习(一):Graph介绍、特性和随机图模型
阅读领域相关文献和学习名校课程能帮助我们很好的构建系统性深度学习的知识体系。新建《深度学习进阶课程》专栏,后续将从CS224w开始,陆续添加各名校深度学习课程的学习笔记。
慎笃
2021/09/15
1.8K0
图表示学习Graph Embedding综述
最近在学习Embedding相关的知识的时候看到了一篇关于图嵌入的综述,觉得写的不错便把文章中的一部分翻译了出来。因自身水平有限,文中难免存在一些纰漏,欢迎发现的知友在评论区中指正。
Houye
2020/04/07
3.3K0
复杂网络基本概念
典型的网络是由节点与连接两节点的边组成,现实生活存在大量复杂系统可通过网络加以描述,比如社交网络、电力网络、交通网络等。
用户8870853
2021/07/27
1.3K0
使用图进行特征提取:最有用的图特征机器学习模型介绍
从图中提取特征与从正常数据中提取特征完全不同。图中的每个节点都是相互连接的,这是我们不能忽视的重要信息。幸运的是,许多适合于图的特征提取方法已经创建,这些技术可以分为节点级、图级和邻域重叠级。在本文中,我们将研究最常见的图特征提取方法及其属性。
deephub
2020/10/19
2.7K0
使用图进行特征提取:最有用的图特征机器学习模型介绍
图机器学习无处不在,用 Transformer 可缓解 GNN 限制
作者 | Clémentine Fourrier 编译 | 黄楠 编辑 | 陈彩娴 在我们今天的生活中,图的示例包括社交网络、例如Twitter、Mastodon、以及任何链接论文和作者的引文网络,分子,知识图、例如 UML 图、百科全书以及有超链接的网站,表示为句法树的句子以及任何的 3D 网格等,可以说图已经无处不在。 近日,Hugging Face 研究科学家 Clémentine Fourrier 在文章《Introduction to Graph Machine Learning》就介绍了今天这种
AI科技评论
2023/02/23
6260
图机器学习无处不在,用 Transformer 可缓解 GNN 限制
CS224w图机器学习(八):Deep Generative Models for Graphs
本文主要介绍CS224W的第十课,图的深度生成模型。第九课是图神经网络的实战,该部分内容会和其他场景的实战进行统一整合,做一个不断更新的实战篇章,并按场景将其梳理到同一个代码库下。回顾第八章,课程主要讲述了图神经网络,以及引入聚合函数和注意力机制的图卷积网络,通过图神经网络可自动化生成Embedding。本课程则主要讲述图的生成模型,如何生成一张图。
慎笃
2021/09/15
4910
CS224w图机器学习(七):Graph Neural Networks
本文主要介绍CS224W的第八课,图神经网络。上一篇章的主题是图表征学习,主要在讲Node Embedding,核心步骤包含编码网络和相似性度量。本文则是从图神经网络的角度出发,展开一些编码网络的深度方法。
慎笃
2021/09/15
5760
CS224w图机器学习(六):Graph Representation Learning
本文主要介绍CS224W的第七课,图的表征学习,这里的表征类似于NLP里的word embedding。上一节课讲了图的信息传输和节点分类,节点的类别由节点自身的特征和邻居节点的类别所决定,但节点自身的特征通常依赖于人工干预的特征工程,这里可能会耗时耗力,那么能不能自动化地提取这些信息呢,这就是本节课的主要内容图的表征学习,基于Embedding的方式自动提取节点特征。
慎笃
2021/09/15
8590
在图数据上做机器学习,应该从哪个点切入?
自从我们在伦敦互联数据中心(Connected Data London)的演讲以来,我已经与许多拥有图数据的研究团队进行了交谈,他们希望对图进行机器学习,但不确定从哪里开始。
AI科技大本营
2019/09/03
1.2K0
在图数据上做机器学习,应该从哪个点切入?
网络科学课程
你总是要先扛过沮丧的今天,才有真实可期的明天.成年人的世界向来没有容易二字.总有一个时刻,在你或长或短的生命里,一定至少有一个夜晚,你站在窗前,看着窗外的世界,觉得无比沮丧,但是你可以选择拥抱光明,允许自己有沮丧和疲惫的权利,但不忘保持战斗力.嘴上喊着丧,却没有停止脚步,唯有化沮丧为力量,坚持向前走,才能将今日的丧,蜕变成明日的喜.这就是平凡如你的不平凡之处.
裴来凡
2022/05/29
6900
网络科学课程
【译】图上的深度学习综述 五、图自编码器
自编码器(AE)及其变体被广泛用于无监督学习 [74],它适用于学习没有监督信息的图节点表示。 在本节中,我们将首先介绍图自编码器,然后转向图变分自编码器和其他改进。表 4 总结了所调查的 GAE 的主要特征。
ApacheCN_飞龙
2022/05/07
1.5K0
【译】图上的深度学习综述 五、图自编码器
TNNLS | GNN综述:A Comprehensive Survey on Graph Neural Networks
题目:A Comprehensive Survey on Graph Neural Networks
Cyril-KI
2022/11/01
1.8K0
TNNLS | GNN综述:A Comprehensive Survey on Graph Neural Networks
关于图计算&图学习的基础知识概览:前置知识点学习(Paddle Graph L)系列【一】
关于图计算&图学习的基础知识概览:前置知识点学习(Paddle Graph Learning (PGL)) 欢迎fork本项目原始链接:关于图计算&图学习的基础知识概览:前置知识点学习(Paddle
汀丶人工智能
2022/11/18
8610
图数据表征学习,绝不止图神经网络一种方法
近年来,图神经网络掀起了将深度学习方法应用于图数据分析的浪潮。不过其作为一门古老的认识世界的方法论,人们对于图数据表征技术的研究从很早以前就开始了。
AI科技评论
2020/06/03
3.7K0
腾讯AI Lab联合清华,港中文长文解析图深度学习的历史、最新进展到应用
本文作者: 腾讯:荣钰、徐挺洋、黄俊洲;清华大学:黄文炳;香港中文大学:程鸿 前言 人工智能领域近几年历经了突飞猛进的发展。图像、视频、游戏博弈、自然语言处理、金融等大数据分析领域都实现了跨越式的进步并催生了很多改变了我们日常生活的应用。近段时间,图神经网络成为了人工智能领域的一大研究热点,尤其是在社交网络、知识图谱、化学研究、文本分析、组合优化等领域,图神经网络在发掘数据中隐含关系方面的强大能力能帮助我们获得更好的数据表达,进而能让我们做出更好的决策。比如通过图神经网络梳理人类社会关系网络的演变
腾讯技术工程官方号
2020/09/24
1.1K0
Mathematics2022-Network Embedding Algorithm Taking in Variational Graph AutoEncoder
属性网络在现实世界中被广泛的用于建模实体间的连接,其中节点的联通边表示对象之间的关系以及关于节点本身的描述中节点的属性信息。举了3个例子:
唔仄lo咚锵
2023/03/26
8830
Mathematics2022-Network Embedding Algorithm Taking in Variational Graph AutoEncoder
Graph Neural Network(GNN)综述
图(graph)是一个非常常用的数据结构,现实世界中很多很多任务可以描述为图问题,比如社交网络,蛋白体结构,交通路网数据,以及很火的知识图谱等,甚至规则网格结构数据(如图像,视频等)也是图数据的一种特殊形式,因此图是一个很值得研究的领域。
SIGAI学习与实践平台
2019/05/16
2.3K0
Graph Neural Network(GNN)综述
小程序近邻检索:基于B+树的HNSW外存实现
在小程序中,我们有许多近邻检索的场景:例如,在海量的小程序里为用户推荐潜在意图的小程序;在同样海量的小程序内容页面中,快速找到同一主题的下的资讯、视频、知识、商品等各类内容... 随着表示学习技术(Representation Learning)的不断发展,我们有了各种趁手的向量化工具,可以将海量的数据表示为高维图空间的顶点,他们的关系加上特点的距离测度则构成了图的边。那么问题就转化为如何在高维空间里实现快速近邻检索?这个问题有许多的解法,限于篇幅今天我们主要介绍基于HNSW的方法。 1. 前言 进入正题
腾讯知文实验室
2020/07/07
1.8K1
图论与图学习(一):图的基本概念
本文是其中第一篇,介绍了图的一些基础知识并给出了 Python 示例。更多文章和对应代码可访问:https://github.com/maelfabien/Machine_Learning_Tutorials。
机器之心
2019/08/01
1.9K0
图论与图学习(一):图的基本概念
推荐阅读
相关推荐
图机器学习 2.1 Properties of Networks, Random Graph
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验