Loading [MathJax]/jax/output/CommonHTML/jax.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >最新综述| A Survey on Graph Condensation 如何有效将大图压缩为小图?

最新综述| A Survey on Graph Condensation 如何有效将大图压缩为小图?

作者头像
Houye
发布于 2024-02-26 12:30:22
发布于 2024-02-26 12:30:22
7730
举报
文章被收录于专栏:图与推荐图与推荐

大规模图的分析对计算效率和资源需求提出了重大挑战。最近,图缩合(Graph Condensation)作为一种解决方案出现,以解决图数据量不断增加所带来的挑战。GC的动机是将大图的规模缩小到较小的图,同时为下游任务保留必要的信息。为了更好地理解GC并将其与其他相关主题区分开来,浙江大学与伦斯勒理工大学联合发布了该领域的权威综述

  • 综述题目:A Survey on Graph Condensation
  • PDF 链接: https://arxiv.org/pdf/2402.02000.pdf
  • Github 仓库: https://github.com/Frostland12138/Awesome-Graph-Condensation

研究目标与挑战

图数据表示实体之间的关系和交互,在包括社交网络、生物系统和推荐系统在内的各个领域中无处不在。这些场景中的信息和模式已经被建模为节点和边缘,并且在大规模图数据挖掘和模式识别技术等方面拥有重大进展。然而,分析和处理大规模图形对计算效率和资源需求提出了重大挑战。在计算机视觉方面,数据集蒸馏技术得到了广泛的研究与关注。传统的数据集蒸馏依赖的思想是:在由类标签定义的类别中,同一类的实例具有相似的关键特征,例如视觉数据集中的形状模式。这意味着存在“原型”或“聚类中心”,因此同一类的实例之间存在大量冗余信息。同样,在图数据集中,例如在节点分类任务中,同一类内节点的特征和拓扑结构是相似的,图中可能存在大量重复和相似的子图结构。因此,一个自然的问题是:我们如何有效地从大规模图中浓缩有用的信息到小规模图中,以促进各种图数据挖掘任务的效率?以此为研究目标,图缩合方法提出将大规模图提炼成更小但信息量更大的新图。缩合后的新图,在有限计算资源的约束下更易于管理,从而为图数据挖掘任务和应用提供更好的支持,如图持续学习,网络架构搜索和联邦学习等。

虽然图缩合概念与图数据的数据蒸馏(data distillaion)是一致的,但沿用数据蒸馏的定义会导致:

  1. 缺乏能够突出图数据特性的问题定义;
  2. 该领域的丰富方法被归为数据蒸馏在图数据上的一个应用

主要贡献和定义

为了增强对GC的理解,我们首先提出了一个精炼的定义,阐明了GC相较于已有大量研究主题独特之处,并强调了与普通数据集蒸馏的区别。在我们的定义下,由于共同的研究目标,即通过减少图数据量来促进图数据分析,部分相关主题的方法也被包含在我们的讨论中。我们的贡献如下:

  • 我们提出了GC的正式定义,并系统地将现有的GC方法根据优化目标分为三种类型:图导向、模型导向和混合,并将将缩合图的生成方式分为修饰法(对原图进行聚合、删减)和合成法(从初始化的参数开始合成全新的图);
  • 我们提供了基本数据集的摘要,并对评估指标和方法应用进行了分析;
  • 我们从更广阔的角度深入研究了GC方法的局限性和挑战,提出了未来的方向,从而启发了GC的未来工作。

由于图数据集的丰富性,图缩合算法的研究涉及单图和多图的场景。考虑

表示

张图的数据集,其中

,

,

表示顶点(节点)和边的集合,

为邻接矩阵,

为特征矩阵。

则是图

对应的拉普拉斯矩阵。

表示

时节点或者边的标签;当

时,

为标签的向量表示。

假设缩合数据集为

,

,我们对GC的定义如下:

在定义中,GC特指一类旨在将大规模图缩放为更小但信息丰富的新的图数据集的方法,这里的“新”意味着原始数据集中不存在的部分,包括新的节点和边。

由于广泛的研究围绕单个图的数据缩合展开,为了更直观展示缩合过程的信息变化,我们有以下公式表示其优化过程:

其中:

  • 缩合目标

描述图信息的损失,通过函数

进行量化;

通过最小化

进行优化;

  • 公式函数

描述了我们如何公式化缩合图,由

进行参数化。

形成缩合图的三个步骤对应于GC工作流中的三个步骤,如上图(c)所示。根据我们的定义,对于图中需要保留信息的指定至关重要,因为主要目标是在保留足够信息的同时减少图数据的规模。我们根据图缩合对象分类对已有研究进行介绍,并在论文中列出了该领域中现有算法的优化方式。

方法介绍与分类

数据对象分类

根据GC定义中缩合对象的不同,我们把方法分为三种类型:保留图的某些属性(图指导),保留GNN对下游任务的能力(模型指导),或同时完成两者(混合方法)。

图指导

该类型方法主要是以原始数据集为导向,提取得到类似属性的缩合图,其中对于图属性的定义和相似性评估是该类方法的关键。根据图信息所属域的不同,我们将该类目标进一步分为图数据的谱域和空间域方法。

  • 谱域中拉普拉斯算子是用来定义图的谱性质,这一类GC方法通过最小化原始图集和缩合图集的谱域距离,或者直接使用拉普拉斯特征值和特征向量进行相似度靠近优化来获得缩合图集。
  • 空间域是指图的原始拓扑和节点特征,最小化拓扑信息如使用图密度、节点平均度、节点度方差、评分函数排序等指标和冗余结构识别等方法进行优化。特征则可以使用同态性、特征重构等方法进行优化。

模型指导

我们假设

表示用

参数化的GNN在数据集

上训练。由于GC的最终目标是通过在较小的图集上训练模型 (包括但不限于GNN) 来获得和原始数据集相似的性能,因此使用原始图训练的神经网络模型上的信息是有意义且可用的。因此,许多方法以模型为中介来获得缩合数据集,优化目标为为:

其中

是特定于任务的损失函数, 优化属性为

,优化目标是

,

为距离函数。

现有研究捕获的模型属性信息包括:梯度、模型损失值、嵌入和logits预测等。

混合方法

值得注意的是,上述两类优化目标并不是相互冲突的。因此,我们把同时结合了图属性和模型信息作为凝聚过程中的指导的方法称为混合方法。

目标比较

三种类型的目标,即图指导、模型指导和混合方法,对应其优点和缺点的讨论如下:

  • 图指导:为了产生“相似”的缩合图,图指导目标侧重于保留原始图的属性。这适用于需要保留原始图中的模式的应用程序。然而,它们不受下游任务的指导,因此可能不是最优解决方案。
  • 模型指导:目标旨在通过优化缩合图来保持模型的性能。这些方法是由动机导向的优化驱动的,因此在预定义的场景中表现得非常好。然而,它可能会导致过拟合,降低缩合图对其他模型或任务的适应性。
  • 混合方法:结合了图引导方法和模型引导方法的优点,旨在保留模型性能的同时,为同时重视图属性和模型性能的场景保留图属性。然而,平衡这两个目标并优化它们可能具有挑战性。

综上所述,图指导更适用于强调图结构的任务,模型指导适用于强调模型性能的场景,混合方法寻求两者之间的平衡。考虑到任务的目标和图的特点,在实际应用中选择最合适的方法需要仔细考虑。

优化方法分类

对于原始数据集的优化,我们提出公式表述:

。因此,

优化过程包括三个部分分别对应缩合图的拓扑,特征和标签,对应表示为:

,

, 和

。进一步,我们把得到缩合图的具体过程分为修饰法和合成法。

修饰法

修饰法包括节点聚合和删除等操作,其中缩合图是修改原始图的产物。这类公式可以统一形式化为从原始图

到缩合图

的节点聚合操作。假设缩合图节点

是由原始图中

个节点聚合而来,其中

,我们总结形式化过程如下:

其中

表示矩阵的转置和伪逆运算,

被定义为映射矩阵,表示原始图

中的节点

聚合成为缩合图

中的超级节点

。在一般定义中,映射矩阵

的每一行可能包含不确定数量的非零条目,从none(节点被认为是丢弃的)到一个(节点聚合一次)甚至多个(社区存在重叠问题)。目前还没有论文深入讨论这一领域的社区重叠,然而,这种情况也可以包括在我们的构想中。

合成法

合成法将缩合图作为参数,通过最小化特定目标函数来直接优化。我们进一步将此公式分为三种策略:预定义、联合优化和顺序优化。

  • 预定义:预定义缩合图的拓扑

和标签

  • 联合优化:将缩合图(拓扑

和节点特征

)视为优化目标的参数,并且通常通过采样原始标签

来预定义节点标签

  • 顺序优化:可以视为联合优化挑战中的一种妥协(如果将包含拓扑

和节点特征

的完整缩合图作为优化参数,则参数空间的维数会显著上升,从而导致难以收敛),采用对缩合图的部分属性信息进行优化,然后根据信息之间的关系构造或学习其余信息。

方法比较

尽管合成法中顺序优化必须依赖于其他属性的中间结果,但以上提到的每种优化方式都有其独特的方法(或尚未发明但可以实现的方法)来分别生成

。综上所述,修饰法表现出最强的计算效率和可解释性,但其适用性有限,因为每个等待凝结的图都需要重新校准投影矩阵。联合优化合成法是最简单的方法,可以直接定义目标并进行优化,但也是最具挑战性的方法,参数搜索空间可能太大而难以收敛。为了解决这个问题,顺序优化合成是一个两步方案,结合了易于实现和面向目标的优点。预定义的合成法产生直观的结果,并且在特定设计的场景中有效。

多图缩合方法

以上方法的分类与讨论都是针对单个图的缩合算法,而有些例如生物数据集中的分子图中,一个分子就是一个图网络,因此对于多图数据集的缩合方法我们也做出分类如下:

  • 一对一缩合:每个图都是独立缩合的,即缩合图集和原始图集中图的数量保持不变;
  • 联合缩合:与单图联合优化类似,该策略将多个图作为优化目标,即缩合图集中图的个数远远小于原始图集。

数据集和评价指标

数据集

我们系统地组织和总结了所讨论方法中使用的数据集,将它们分为两种主要类型:具有单个大图的数据集和包含多个图的数据集。前者通常用于节点分类和边缘预测等任务,后者用于图分类。我们给出了数据集的关键属性,包括节点数量、边数量、特征和类等细节,以及具有单个大图的数据集的图类型(例如,社交网络或分子网络)。此外,对于包含多个子图的数据集,我们根据子图的数量、节点的平均数量、边的平均数量、标签的数量和图的类型提供组织。这些数据集的详细统计可以在我们的在线资源中找到。

有效性和效率度量

GC旨在创建一个更小的图数据集,同时保留足够的信息,因此评估这些信息保留了多少是至关重要的。与传统GNN的直接性能评估相比,GC方法由于其信息的复杂和方法的多样,从而难以进行较为客观的评价。从整体的角度来看,我们将整个GC过程的评价归纳为两个方面:有效性和效率度量。有效性评估GC保留原始信息的程度,而效率包括冷凝过程和下游任务效率。详情如下:

有效性

从输入和输出的角度来看,GC方法将原始图作为输入,将缩合图作为输出。为了验证缩合图的信息量,从以下三个方面来评估GC的有效性:

  • 评估原始图和缩合图在光谱和空间特征等领域的相似性;
  • 缩合图集在下游任务中的性能与传统GNN的评价非常接近,但具有可比性的性能可以被认为是成功地为下游任务保留了有价值的信息;
  • 缩合图本身的属性,例如,将GC作为一个组件集成到现有系统中的适用性,以及与目标系统(如图嵌入和图持续学习)相一致的评估指标;具有公平性、通用性等能力的度量。

效率

GC的基本动机是高效地促进大规模原始图上的图挖掘任务。因此,评估GC在缩合图挖掘中节省的资源或者说效率提升是有必要的。我们主要针对GC算法本身的效率和得到的缩合图集用于下游任务的效率提升进行讨论。

  • GC算法效率:算法本身的时间复杂度和空间复杂度,得到缩合图集所用的时间和内存占用等;
  • 缩合图下游任务:使用缩合图集训练一个新的GNN相较于原始图集的效率提升一般可由缩合比间接表示出,但对应的时间和内存等分析可以为缩合比和性能的权衡提供指导。

挑战与未来方向

局限性与挑战

  • 性能差距:在我们的分析中,有一个明显的性能差距:合成缩合图的规模比修改策略的规模小得多。不同的策略有各自的优势,但是在同一度量标准上进行评估时,可能存在显著的性能差距。即合适的方法的选择是多种多样的,取决于应用场景的实际需求,目前很难有一个统一的策略。
  • 应用的效率:如果GC的最终目标是在缩放数据集上有效地训练GNNs,则可能需要确保GC投入的时间和资源不会超过在较小的图上训练所节省的时间。然而,由于GC过程是一次性的,只要下游任务持续足够长的时间或经常重复,这个需求仍然可以满足。因此,下游任务场景必须作为效率评估方案的一部分。
  • 综合效能指标:现有方法主要基于下游任务中缩合图的性能来评估GC有效性。然而,传统的性能指标,如准确性ACC,可能无法解决关键问题。其他如缩合图集的公平性,鲁棒性等都需要进一步的关注与研究。
  • 潜在能力探索:GC方法得到了一个新的数据集,而对于新概念的引入可能会带来许多潜在的能力提供给我们进行探索。我们认为一下方面可以提供指导:(1)各种GNN架构的性能; (2)模型收敛性; (3)极端缩合比和(4)多重下游任务等。

未来方向

  • 可解释性:与计算机视觉领域数据集蒸馏的结果所带来的天然可解释性不同,缩合图的输出需要在现实世界中进一步探索可解释性。在我们的定义中,GC的关键识别是缩合图中的节点或边可能是新生成的。虽然这些新元素可能为图挖掘提供了足够的信息,但它们在现实世界中的语义含义可能很难直接获得。
  • 更复杂的图数据:尽管GC已经成功地在各种图中开发,但大多数现有方法主要集中在无向、同构、静态图上。然而,现实场景中的图通常更复杂,例如动态图(例如;如交通流图)、异构图(如用户-项目图)等。
  • 优化对象的关系:在我们的分类法下,每个GC目标都可以根据要保存的特定信息分为两组--图指导和模型指导。这两类目标并非内在冲突,但它们之间的相互关系尚未得到最终调查。例如,尚不确定是否存在理论上的保证,即保留某些图属性足以保持GNN性能,或者相反。
  • 性能与效率权衡:在应用程序的探索中,我们不可避免地面临一个关键而微妙的问题:如何确定缩合图的规模以满足GC的预定义目的?虽然一些现有的方法已经认识到有效性和效率之间的权衡,但我们认为有效性和效率都应该全面地包括在权衡框架中。这对于指定GC的效用并将其应用范围扩展到更实际的场景至关重要。通过考虑这两个方面,我们可以更好地理解GC技术的优点和局限性,并对它们在实际环境中的适用性做出明智的决策。
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-02-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 图神经网络与推荐系统 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
CVPR2022 Oral:GAN监督的密集视觉对齐,代码开源
该论文发表于CVPR2022,主要是关于GAN监督学习在密集视觉对齐中的应用,并且论文代码已经开源。在该论文中作者提出了一种用于端到端联合学习的GAN生成数据的框架。受到经典方法的启发,论文中作者联合训练一个空间变换器,将随机样本从基于未对齐数据训练的GAN映射到共同的、联合学习的目标模式。
CV君
2022/09/01
5690
CVPR2022 Oral:GAN监督的密集视觉对齐,代码开源
CVPR2023 | 用于统一的图像恢复和增强的生成扩散先验
在拍摄、存储、传输和渲染过程中,图像质量往往会降低。图像恢复和增强的目标是逆转这种退化并改善图像质量。通常,恢复和增强任务可以分为两大类:1)线性反演问题,例如图像超分辨率(SR)、去模糊、修补、彩色化等,在这些任务中,退化模型通常是线性的且已知;2)非线性或盲问题,例如低光增强和HDR图像恢复,其中退化模型是非线性的且未知。对于特定的线性退化模型,可以通过对神经网络进行端到端的监督训练来解决图像恢复问题。然而,在现实世界中,受损图像往往存在多个复杂的退化情况,全面监督的方法很难泛化应用。近年来,通过生成模型寻找更通用的图像先验并在无监督设置下处理图像恢复问题引起了广泛的兴趣。在推理过程中,可以处理不同退化模型的多个恢复任务而无需重新训练。例如,经过大量干净图像数据集训练的生成对抗网络(GAN)通过GAN反演,在各种线性反演问题上取得了成功,学习到了真实世界场景的丰富知识。与此同时,去噪扩散概率模型(DDPMs)在GAN的基础上展现了令人印象深刻的生成能力、细节水平和多样性。作为早期尝试,现有的工作——去噪扩散恢复模型(DDRM)使用预训练的DDPMs进行变分推断,并在多个恢复任务上取得了令人满意的结果,但其在已知线性退化矩阵上利用奇异值分解(SVD),因此仍然局限于线性反演问题。本文进一步提出了一种高效的方法,名为生成扩散先验(GDP)。它利用经过良好训练的DDPM作为通用图像恢复和增强的有效先验,并以退化图像作为引导。作为一个统一的框架,GDP不仅适用于各种线性反演问题,还首次推广到非线性和盲目图像恢复和增强任务。GDP采用了一种盲退化估计策略,在去噪过程中随机初始化并优化GDP的退化模型参数。此外,为了进一步提高光真实性和图像质量,本文系统地研究了一种有效的指导扩散模型的方法。另外,借助提出的分层指导和基于分块的生成策略,GDP能够恢复任意分辨率的图像,其中首先预测低分辨率图像和退化模型,以引导高分辨率图像的生成过程。
用户1324186
2023/11/27
1.6K0
CVPR2023 | 用于统一的图像恢复和增强的生成扩散先验
什么特征进行交互才是有效的?
本文主要针对推荐系统中的特征交互而提出的相关方法,如果将所有可能的特征都进行交互,那消耗是很大的,本文提出HIRS用于直接生成有益特征交互。生成的特征交互的数量可以指定为远小于所有可能的交互的数量,因此模型运行时间更短。
秋枫学习笔记
2022/09/19
8880
MoNA:复用跨模态预训练模型,少样本模态的福音 | ICML'24
论文: Learning Modality Knowledge Alignment for Cross-Modality Transfer
VincentLee
2024/09/24
1040
MoNA:复用跨模态预训练模型,少样本模态的福音 | ICML'24
文字生成图片综述 - plus studio
根据文字生成图像,是近几年大模型领域和多模态比较热门的研究。以NovelAI,waifu等为代表的二次元模型极大地拓展了 stable diffusion [5][24]模型和生态的想象空间。例如原本做AIGC生成小说的NovelAI推出了自己的二次元图像生成模型,基于 SD 算法框架和 Danbooru 二次元图库数据集进行训练和优化。像 NovelAI 这类的二次元模型对于用户输入的描述词的专业程度要求较高,也由社区自发整理了大量的魔典(prompt).精确控制图像的生成也是AI绘画的一个发展方向,各种可以控制人物动作,位置的方法[10][13][19]被提出.最近openai也开源了他们最新的研究Consistency Models[20] ,可以1s内生成多张图片。此外,stable diffusion也被用在了3d模型的生成方面,例如 dreamfusion[25],Point-E[26] 等。
plus sign
2024/02/28
6440
文字生成图片综述 - plus studio
ICCV 2023 | 在离散潜在空间中以优先级为中心的人体运动生成
由于固有的模态差异和文本与动作模态之间的复杂映射,生成高质量的动作并不是一件简单的事情。尽管目前已经取得了一些进展,但仍然存在两个主要问题未得到解决:
用户1324186
2023/09/09
5790
ICCV 2023 | 在离散潜在空间中以优先级为中心的人体运动生成
可信赖图神经网络综述!图的因果学习!
本文综述了图神经网络(GNN)在图挖掘应用中的最新进展,并强调了其在低维表示中保留丰富知识的能力。然而,GNN在可靠性方面存在挑战,包括OOD泛化能力、公平性和可解释性。为了解决这些问题,研究人员开始将因果学习纳入可信赖图神经网络(TGNN)的开发中。
算法进阶
2024/05/21
6980
可信赖图神经网络综述!图的因果学习!
NeurIPS2023 | ResShift:通过残差位移实现的用于图像超分辨率的高效扩散模型
图像超分辨率(SR)是低层次视觉中的一个基本问题,旨在从低分辨率(LR)图像中恢复高分辨率(HR)图像。由于真实场景中降解模型的复杂性和未知性质,这个问题严重缺乏明确性。最近,扩散模型在图像生成方面取得了空前的成功。此外,它还展现了在解决几个下游低层次视觉任务方面的巨大潜力,包括图像编辑、图像修补、图像着色等。一种常见的方法包括将低分辨率图像插入当前扩散模型(例如DDPM)的输入,并从头开始在SR训练数据上重新训练模型。另一种流行的方法是使用一个无条件预先训练的扩散模型作为先验,并修改其逆向路径以生成预期的高分辨率图像。不幸的是,这两种策略都继承了DDPM基础的马尔可夫链,这种方式推理效率低下,通常需要数百甚至数千个采样步骤。尽管已经开发了一些加速技术来减少推理中的采样步骤,但它们不可避免地导致性能显著下降,导致图像过度平滑的结果。因此,有必要设计一个新的扩散模型用于SR,同时实现高的效率和性能。 基于上述动机,本文提出了一种高效的扩散模型,用一个较短的马尔可夫链实现在高分辨率图像和其对应的低分辨率图像之间进行过渡。马尔可夫链的初始状态收敛到高分辨率图像的近似分布,而最终状态收敛到低分辨率图像的近似分布。为实现这一点,本文精心设计了一个过渡核,逐步地移动它们之间的残差。与现有基于扩散的SR方法相比,这种方法更高效,因为残差信息可以在几十个步骤内快速传输。此外,这种设计还允许对证据下界进行解析和简洁的表达,从而简化了训练优化目标的引入。基于构建的扩散核,本文进一步开发了一个高度灵活的噪声序列,控制每一步中残差的移动速度和噪声强度。这种序列通过调整其超参数促进了恢复结果的保真度和真实性之间的权衡。
用户1324186
2023/12/11
1.8K0
NeurIPS2023 | ResShift:通过残差位移实现的用于图像超分辨率的高效扩散模型
【知识】Graph Sparsification、Graph Coarsening、Graph Condensation的详细介绍和对比
1. 理论基础(Definitions & Theoretical Background)
小锋学长生活大爆炸
2025/04/09
1220
文生图文字模糊怎么办 | AnyText解决文生图中文字模糊问题,完成视觉文本生成和编辑
前者使用文本的字符、位置和掩码图像等输入来为文本生成或编辑生成潜在特征。后者采用OCR模型将笔划数据编码为嵌入,与来自分词器的图像描述嵌入相结合,以生成与背景无缝融合的文本。作者在训练中采用了文本控制扩散损失和文本感知损失,以进一步提高写作准确性。据作者所知,AnyText是第一个解决多语言视觉文本生成的工作。 值得一提的是,AnyText可以与社区现有的扩散模型相结合,用于准确地渲染或编辑文本。经过广泛的评估实验,作者的方法在明显程度上优于其他所有方法。 此外,作者还贡献了第一个大规模的多语言文本图像数据集AnyWord-3M,该数据集包含300万个图像-文本对,并带有多种语言的OCR注释。基于AnyWord-3M数据集,作者提出了AnyText-benchmark,用于评估视觉文本生成准确性和质量。 代码:https://github.com/tyxsspa/AnyText
公众号-arXiv每日学术速递
2023/11/15
1.2K0
文生图文字模糊怎么办 | AnyText解决文生图中文字模糊问题,完成视觉文本生成和编辑
「微软」局部图协同过滤缓解数据稀疏问题
本文是针对图神经网络在推荐系统中的应用提出的相关方法LGCF,对于用户-商品交互数据稀疏的情况下,无法得到较好的embedding来计算偏好。LGCF不需要为每个用户和商品学习embedding,旨在将有用的 CF 信息编码到局部图中,并基于该图进行推荐。
秋枫学习笔记
2022/09/19
6970
CLIFF : 结合整帧位置信息的人体姿态和形状估计
基于参数化人体从单张RGB图像重建三维人体姿态与形状,由于图片的深度模糊性,是一个欠约束问题。由于这个问题在 AR/VR 、动作分析等领域的重要性,它引起了很多关注。
用户1324186
2022/11/07
1.7K0
CLIFF : 结合整帧位置信息的人体姿态和形状估计
生信程序 | NG | 空间解析组学数据中细胞微环境的定量表征
◉ NicheCompass 接受单样本或多样本空间组学数据作为输入,这些数据带有细胞水平或斑点水平的观察。◉ 利用二维坐标,它构建了一个空间邻域图(表示为二进制邻接矩阵),每个细胞或斑点代表一个节点。◉ 每个观察包括组学特征(基因表达和可选的配对染色质可及性)以及协变量以考虑混杂因素(例如,样本)。◉ b,一个图神经网络(GNN)编码器生成细胞嵌入,协变量嵌入用于去除混杂效应。◉ c,该模型被激励学习一种嵌入方式,在其中每个特征代表从领域知识中检索到的空间局部化交互路径的活动,并表示为先验程序。◉ 除了先验程序外,该模型还可以发现新的程序,这些程序学习一组空间共存的基因和峰值。◉ GP(基因程序)。◉ d,GP 来自数据库或专家,分为三类,包含邻居组件和自身组件以反映细胞间和细胞内相互作用。◉ 邻居组件包含与细胞间相互作用来源相关的基因,而自身组件包含与细胞间相互作用目标相关的基因和与细胞内相互作用相关的基因。◉ 峰值如果在地理位置上接近,则与基因相关联。◉ TF(转录因子)。◉ e,解码器重建空间和分子信息,同时约束嵌入特征以表示特定程序的活动:图解码器重建样本特定的输入邻接关系,组学解码器重建节点的组学计数及其邻居的汇总计数。◉ 组学解码器基于程序是线性的并且是掩码的,从而实现可解释性(通过一个组合交互程序举例说明)。◉ f,NicheCompass 促进了空间组学数据分析中的关键下游应用。◉ 细胞插图使用 BioRender.com 制作。
生信菜鸟团
2025/04/26
930
生信程序 | NG | 空间解析组学数据中细胞微环境的定量表征
基于梯度的NLP对抗攻击方法
Facebook提出了一种NLP通用的攻击方法,而且可以通过梯度优化,论文发表在EMNLP2021,名为Gradient-based Adversarial Attacks against Text Transformers,源码在facebookresearch/text-adversarial-attack
mathor
2021/11/15
1.2K0
​AdaAugment | 无需调优的自适应数据增强,仅引入了极少的参数和计算开销,性能 SOTA !
数据增强(DA)是减轻深度神经网络训练过程中过拟合的一种关键且非常有效的技术,这导致了更一般化和可靠的模型。然而,需要注意的是,现有的DA方法主要依赖于在训练过程中使用完全随机或人为设计的增强幅度,这可能导致次优的训练场景,并需要人类专家在给定新数据集时对超参数进行更多的调整工程。
集智书童公众号
2024/05/28
8900
​AdaAugment  |  无需调优的自适应数据增强,仅引入了极少的参数和计算开销,性能 SOTA  !
SIGIR'22「腾讯」HIEN:用于点击率预估的分层意图embedding学习
特征交互建模和用户兴趣建模方法是 CTR 预测中的两个热门领域,现有方法存在两方面的不足。
秋枫学习笔记
2022/09/19
7860
ICLR 2022 | DBD: 基于分割后门训练过程的后门防御方法
后门攻击的目标是通过修改训练数据或者控制训练过程等方法使得模型预测正确干净样本,但是对于带有后门的样本判断为目标标签。例如,后门攻击者给图片增加固定位置的白块(即中毒图片)并且修改图片的标签为目标标签。用这些中毒数据训练模型过后,模型就会判断带有特定白块的图片为目标标签(如下图所示)。
CV君
2023/03/06
5760
ICLR 2022 | DBD: 基于分割后门训练过程的后门防御方法
TNNLS | GNN综述:A Comprehensive Survey on Graph Neural Networks
题目:A Comprehensive Survey on Graph Neural Networks
Cyril-KI
2022/11/01
1.9K0
TNNLS | GNN综述:A Comprehensive Survey on Graph Neural Networks
图推荐系统综述:A Survey of Graph Neural Networks for Recommender System
第一次整理综述,作为深入这个方向的开始。应该不如AI整理的详细全面,不过这一篇文章主要是阅读时整理的一些对我来说有帮助的点,供自己未来存档回顾细节。
NewBeeNLP
2024/05/06
1.5K0
图推荐系统综述:A Survey of Graph Neural Networks for Recommender System
SSD-KD:天翼云&清华出品,最新无原始数据的蒸馏研究 | CVPR'24
论文: Small Scale Data-Free Knowledge Distillation
VincentLee
2024/09/18
1310
SSD-KD:天翼云&清华出品,最新无原始数据的蒸馏研究 | CVPR'24
推荐阅读
CVPR2022 Oral:GAN监督的密集视觉对齐,代码开源
5690
CVPR2023 | 用于统一的图像恢复和增强的生成扩散先验
1.6K0
什么特征进行交互才是有效的?
8880
MoNA:复用跨模态预训练模型,少样本模态的福音 | ICML'24
1040
文字生成图片综述 - plus studio
6440
ICCV 2023 | 在离散潜在空间中以优先级为中心的人体运动生成
5790
可信赖图神经网络综述!图的因果学习!
6980
NeurIPS2023 | ResShift:通过残差位移实现的用于图像超分辨率的高效扩散模型
1.8K0
【知识】Graph Sparsification、Graph Coarsening、Graph Condensation的详细介绍和对比
1220
文生图文字模糊怎么办 | AnyText解决文生图中文字模糊问题,完成视觉文本生成和编辑
1.2K0
「微软」局部图协同过滤缓解数据稀疏问题
6970
CLIFF : 结合整帧位置信息的人体姿态和形状估计
1.7K0
生信程序 | NG | 空间解析组学数据中细胞微环境的定量表征
930
基于梯度的NLP对抗攻击方法
1.2K0
​AdaAugment | 无需调优的自适应数据增强,仅引入了极少的参数和计算开销,性能 SOTA !
8900
SIGIR'22「腾讯」HIEN:用于点击率预估的分层意图embedding学习
7860
ICLR 2022 | DBD: 基于分割后门训练过程的后门防御方法
5760
TNNLS | GNN综述:A Comprehensive Survey on Graph Neural Networks
1.9K0
图推荐系统综述:A Survey of Graph Neural Networks for Recommender System
1.5K0
SSD-KD:天翼云&清华出品,最新无原始数据的蒸馏研究 | CVPR'24
1310
相关推荐
CVPR2022 Oral:GAN监督的密集视觉对齐,代码开源
更多 >
领券
💥开发者 MCP广场重磅上线!
精选全网热门MCP server,让你的AI更好用 🚀
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档