首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    港中文 和 上海 AI Lab提出 GTP-4o 异构图技术突破多模态学习难题 !

    每种模态都有自己的视角来反映特定的数据特征。整合多模态数据使模型能够在宏观、微观和分子层面上获得关于受试者状况的各种洞察,从而实现准确全面的疾病诊断。例如,各种成像技术的多模态融合显著提高了在内镜场景中胃肠道病变的检测和表征。同样,将基因信息与病理图像结合可以提高癌症分级的预测准确性。相关任务,如生存预测(旨在预测重大事件如死亡或疾病复发的时间间隔),也可以从这种多模态融合中受益[7]。此外,由病理图像中的细胞核分割构建的细胞图显示提供了更细粒度的微观信息[70]。视觉语言模型在生物医学图像和文本学习方面的最新进展也激发了一系列工作[78],其中诊断文本通常包含抽象的语义信息[10]。这些进展为扩展生物医学多模态模型的容量边界至全模态表示,以处理更广泛的临床模态提供了潜力。

    01

    Nat. Mach. Intell. | 多模态补全和特征的联合变分自编码器

    今天为大家介绍的是来自威斯康星大学麦迪逊分校团队的一篇关于单细胞多模态的论文。单细胞多模态数据能够测量细胞的各种特征,从而深入了解细胞和分子机制。然而,多模态数据的生成仍然昂贵且具有挑战性,同时缺失模态也经常发生。最近,机器学习方法已经被开发用于数据补全,但通常需要完全匹配的多模态数据才能学习共同的潜在特征,可能缺乏模态特异性。为了解决这些问题,作者开发了一个机器学习模型,名为JAMIE。JAMIE接受单细胞多模态数据,这些数据可以在模态之间部分匹配样本。变分自编码器学习每个模态的潜在特征。然后,跨模态匹配样本的特征被聚合以识别联合的跨模态潜在特征,然后进行重构。为了进行跨模态补全,可以使用一个模态的潜在特征和另一个模态的解码器。为了提高解释性,作者使用Shapley值来确定跨模态补全和已知样本标签的输入特征的优先级。

    02

    Cell Reports Methods|用于单细胞多组学数据综合分析的混合专家深度生成模型

    本文介绍由日本名古屋大学医学研究生院系统生物学系的Teppei Shimamura通讯发表在Cell Reports Methods的研究成果:单细胞多组学分析的发展使得在单细胞水平上能够同时检测多个性状,从而对不同组织中的细胞表型和功能提供更深入的见解。目前,从复杂的多模态单细胞数据中推断联合表征和学习多模态之间的关系是具有挑战性的。为此作者提出了一种新的基于深度生成模型的框架(scMM),用于提取可解释的联合表征和跨模态生成。scMM利用混合专家多模态变分自动编码器来解决数据的复杂性。scMM的伪细胞生成策略弥补了深度学习模型可解释性的不足,并且通过实验发现了与潜在维度相关的多模态调节机制。对最新的数据集分析证实了scMM有助于实现具有丰富解释性的高分辨率聚类。此外,与最先进的方法和传统方法相比,scMM的跨模态生成可以实现更精确的预测和数据集成。

    02

    【论文解读】针对生成任务的多模态图学习

    多模态学习结合了多种数据模式,拓宽了模型可以利用的数据的类型和复杂性:例如,从纯文本到图像映射对。大多数多模态学习算法专注于建模来自两种模式的简单的一对一数据对,如图像-标题对,或音频文本对。然而,在大多数现实世界中,不同模式的实体以更复杂和多方面的方式相互作用,超越了一对一的映射。论文建议将这些复杂的关系表示为图,允许论文捕获任意数量模式的数据,并使用模式之间的复杂关系,这些关系可以在不同样本之间灵活变化。为了实现这一目标,论文提出了多模态图学习(MMGL),这是一个通用而又系统的、系统的框架,用于从多个具有关系结构的多模态邻域中捕获信息。特别是,论文关注用于生成任务的MMGL,建立在预先训练的语言模型(LMs)的基础上,旨在通过多模态邻域上下文来增强它们的文本生成。

    02

    ​跨模态编码刺激(视觉-语言大脑编码)实现脑机接口

    实现有效的脑-机接口需要理解人脑如何跨模态(如视觉、语言(或文本)等)编码刺激。大脑编码旨在构建fMRI大脑活动给定的刺激。目前有大量的神经编码模型用于研究大脑对单一模式刺激的编码:视觉(预训练的CNN)或文本(预训练的语言模型)。通过获得单独的视觉和文本表示模型,并使用简单的启发式进行后期融合。然而,以前的工作未能探索:(a)图像转换器模型对视觉刺激编码的有效性,以及(b)协同多模态模型对视觉和文本推理的有效性。在本研究中首次系统地研究和探讨了图像转换器(ViT,DEiT和BEiT)和多模态转换器(VisualBERT,LXMERT和CLIP)对大脑编码的有效性,并发现:VisualBERT是一种多模态转换器,其性能显著优于之前提出的单模态CNN、图像转换器以及其他之前提出的多模态模型,从而建立了新的研究状态。

    02

    CVPR2022丨无缝连接视觉-语言,北京通用人工智能研究院提出新模型超越基准

    理解具有语言描述的复杂视觉场景图像是人工智能的一项基本任务。先前的研究工作已经通过分别为视觉场景(如场景图)和自然语言(如依存树)构建层次结构,展示了令人信服的理解结果。然而,如何建立一个联合视觉和语言(VL)的图结构、建模多模态的依存关系长期缺乏关注。 在今天要介绍的这篇论文研究工作中,来自北京通用人工智能研究院的研究人员提出了一项新任务,旨在以无监督的方式学习联合结构。目前这篇论文已被计算机视觉顶级学术会议CVPR 2022接收。 具体来说,本论文研究的目标是无缝连接视觉场景图和语言依存树。由于缺乏视

    01

    扫码

    添加站长 进交流群

    领取专属 10元无门槛券

    手把手带您无忧上云

    扫码加入开发者社群

    相关资讯

    热门标签

    活动推荐

      运营活动

      活动名称
      广告关闭
      领券