上一节讲到GNN的第一个局限是无法有效的区分某些图结构结构.
CS224W 18.1-Limitations of Graph Neural Network
本节就延续来讲GNN的第二个局限性
CS224W 18.2-Limitations of Graph Neural Network
GNN的第二个局限就是容易受到噪音的影响和对抗攻击,不够鲁棒.
在受到噪音/攻击的时候, GNN的预测结果很容易产生偏差.
这不是只是GNN的问题,NN中也存在,也有相应的对抗攻击专门研究这个
这里的攻击并不是大规模的公式,比如加入非常多非常强的噪音.
对应到图上的攻击,也是"小动作"攻击,比如改变少量节点或者边.
-听起来很高大上,其实攻击在我们生活中是非常常见的
-下面就具体的GNN在攻击面前是什么样子的.
这里以GCN做了一个例子,关于GCN的东西这里不再赘述.
-假设我们想攻击红色节点(比如改变model对其标签的预测),此时能够攻击的节点是其两个1阶邻居. 那么有2个方法
-那么如何形式化的定义图上对抗攻击呢? 就是尝试用公式来描述攻击过程.
总的来说就是:在有限的攻击下,能够最大化的误导模型预测.
-图上的攻击主要有两种
同时,攻击还不能太明显.
-下面这个更加清晰的展示了攻击前后,模型预测的变化.
攻击前,节点v属于类别c_old(也就是第三个柱形),
攻击后,节点v属于类别c_old(也就是第三个柱形)的概率被压低了.与此同时, 节点v属于类别c(也就是第四个柱形)的概率被提升了.
也就是说攻击前后,节点v属于不同类别的概率发生了变化,攻击成功.
-听起来好像攻击很容易,但是实际上:
-对应上面两个难题,有两个解法
-下面是一个攻击的例子
作者用5个GCN对一个节点的标签进行预测.
攻击前,所有的GCN都认为这个节点属于class5
攻击后,所有GCN都认为这个节点属于class6
-实验结果验证了作者的猜想:GNN非常容易被攻击. 在微小的攻击下,模型预测就会大幅度改变.
最后作者简单介绍了GNN的应用挑战.
-有攻击就有防守. 也有一些工作研究如何使得GNN对攻击更加鲁棒.
第二条推送就是图上对抗攻击的相关研究.图对抗攻击这个研究领域已经变得炽手可热, KDD2019的Best Paper就是颁给了一篇这样的论文.