Loading [MathJax]/jax/input/TeX/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >开源 | 最牛无监督学习BigBiGAN预训练模型

开源 | 最牛无监督学习BigBiGAN预训练模型

作者头像
昱良
发布于 2019-10-13 15:53:51
发布于 2019-10-13 15:53:51
1.2K0
举报

学习模型BigBiGAN终于开源了!

近日,DeepMind发布了预训练的BigBiGAN表示学习模型,开源代码可以在TF Hub上找到。

BigBiGAN 模型基于DeepMind 最先进的 BigGAN 模型构建,通过添加编码器和修改鉴别器将其扩展到表示学习。这篇题为《大规模对抗性表示学习》的论文在发布时受到很大关注

论文链接:https://arxiv.org/pdf/1907.02544.pdf

BigBiGAN 表明,“图像生成质量的进步转化为了表示学习性能的显著提高”。

研究人员广泛评估了 BigBiGAN 模型的表示学习和生成性能,证明这些基于生成的模型在 ImageNet 上的无监督表示学习和无条件图像生成方面都达到了 state of the art 的水平

总结而言,这篇论文展示了 GAN 可以用于无监督表示学习,并在 ImageNet 上获得了最先进的结果

下面是 BigBiGAN 生成的一些重建样本,可以看到,重建是倾向于强调高级语义,而不是像素级的细节。

近年来,我们已经看到视觉数据生成模型的快速发展。虽然这些模型以前局限于模式单一或少模式、结构简单、分辨率低的领域,但随着建模和硬件的进步,它们已经获得了令人信服地生成复杂、多模态、高分辨率图像分布的能力。

直观地说,在特定域中生成数据的能力需要高度理解所述域的语义。这一想法长期以来颇具吸引力,因为原始数据既便宜 —— 可以从互联网等来源获得几乎无限的供应 —— 又丰富,图像包含的信息远远超过典型的机器学习模型训练用来预测的类别标签。

然而,尽管生成模型取得的进展不可否认,但仍然存在一些令人困扰的问题:这些模型学到了什么语义,以及如何利用它们进行表示学习?

仅凭原始数据就能真正理解生成这个梦想几乎不可能实现。相反,最成功的无监督学习方法利用了监督学习领域的技术,这是一种被称为自监督学习 (self-supervised learnin) 的方法。

这些方法通常涉及以某种方式更改或保留数据的某些方面,并训练模型来预测或生成缺失信息的某些方面。

例如,Richard Zhang 等人的研究 (CVPR 2016) 提出了一种非监督学习的图像着色方法,在这种方法中,模型被给予输入图像中颜色通道的子集,并经过训练来预测缺失的通道。

作为无监督学习手段的生成模型为 self-supervised 的任务提供了一个很有吸引力的替代方案,因为它们经过训练,可以对整个数据分布建模,而不需要修改原始数据。

GAN 是一类应用于表示学习的生成模型。GAN 框架中的生成器是一个从随机采样的潜在变量 (也称为 “噪声”) 到生成数据的前馈映射,其中学习信号由经过训练的鉴别器提供,用来区分真实数据和生成的数据样本,引导生成器的输出跟随数据分布。

作为 GAN 框架的扩展,Vincent Dumoulin 等人 (ICLR 2017) 提出 adversarially learned inference(ALI)[7],或 Jeff Donahue 等人 (ICLR 2017) 提出 bidirectional GAN (BiGAN)[4] 方法,这些方法通过编码器模块将实际数据映射到潜在数据 (与生成器学习的映射相反) 来增强标准 GAN。

在最优判别器的极限下,[4] 论文表明确定性 BiGAN 的行为类似于自编码器,最大限度地降低了重建成本 l₀;然而,重建误差曲面的形状是由参数鉴别器决定的,而不是像误差 l₂这样的简单像素级度量。

由于鉴别器通常是一个功能强大的神经网络,我们希望它能产生一个误差曲面,在重建时强调 “语义” 误差,而不是强调低层次的细节

论文证明了通过 BiGAN 或 ALI 框架学习的编码器是在 ImageNet 上学习下游任务的一种有效的视觉表示方法。然而,它使用了 DCGAN 风格的生成器,无法在这个数据集上生成高质量的图像,因此编码器能够建模的语义也相当有限。

在这项工作中,我们再次使用 BigGAN 作为生成器,这是一个能够捕获 ImageNet 图像中的许多模式和结构的先进模型。我们的贡献如下:

  • 我们证明了 BigBiGAN (BiGAN with BigGAN generator) 与 ImageNet 上无监督表示学习的最先进技术相匹敌。
  • 我们为 BigBiGAN 提出了一个更稳定的联合鉴别器
  • 我们对模型设计选择进行了全面的实证分析和消融研究。
  • 我们证明,表示学习目标还有助于无条件生成图像,并展示了无条件生成 ImageNet 的最先进结果。

BigBiGAN 框架的结构

评估和结果:表示学习、图像生成实现最优性能

表示学习

我们现在从上述简化学习结果中获取基于 train-val 分类精度的最优模型,在官方 ImageNet 验证集上得出结果,并与最近的无监督学习研究文献中的现有技术水平进行比较。

为了进行这些比较,我们还提供了基于规模较小的 ResNet-50 的最佳性能 GAN 变种的分类结果。详细比较结果在表 2 中给出。

与当前许多自监督学习方法相比,本文中采用的纯基于生成模型的 BigBiGAN 方法在表示学习方面表现良好,在最近的无监督学习任务上的表现达到了 SOTA 水平,最近公布的结果显示,本文中的方法在使用表 2 的 AvePool 相同的表示学习架构和特征的旋转预测预训练任务中,将 top-1 精度由 55.4%提高到 60.8%。

无监督式图像生成

表 3 所示为 BigBiGAN 进行无监督生成的结果,与基于 BigGAN 的无监督生成结果做比较。请注意,这些结果与表 1 中的结果不同,因为使用的是数据增强方法(而非表 1 中的用于所有结果的 ResNet 样式预处理方法)。

这些结果表明,BigBiGAN 显著提升了以 IS 和 FID 为量度的基线无条件 BigGAN 生成结果的性能。

图 2:从无监督的 BigBiGAN 模型中选择的图像重建结果。上面一行的图像是真实图像(x~Px),下面一行图像是由 G(E(x))计算出的这些图像的重建结果。与大多数显式重建成本(例如像素数量)不同,由(Big)BiGAN 实现隐式最小化的重建成本更多倾向于强调图像的语义及其他更高级的细节。

图像重建:更偏重高级语义,而非像素细节

图 2 中所示的图像重建在像素上远达不到完美,可能部分原因是目标没有明确强制执行重建成本,在训练时甚至对重建模型进行计算。然而,它们可以为编码器 ε 学习建模的特征提供一些帮助。

比如,当输入图像中包含狗、人或食物时,重建结果通常是姿势、位置和纹理等相同特征 “类别” 的不同实例。例如,脸朝同一方向的另一只类似的狗。重建结果倾向于保留输入的高级语义,而不是低级细节,这表明 BigBiGAN 的训练在鼓励编码器对前者进行建模,而不是后者。

论文链接:https://arxiv.org/pdf/1907.02544.pdf

预训练模型地址:https://tfhub.dev/s?publisher=deepmind&q=bigbigan

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-10-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习算法与Python学习 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
DeepMind开源最牛无监督学习BigBiGAN预训练模型
近日,DeepMind发布了预训练的BigBiGAN表示学习模型,开源代码可以在TF Hub上找到。
新智元
2019/10/14
6980
DeepMind开源最牛无监督学习BigBiGAN预训练模型
DeepMind爆出无监督表示学习模型BigBiGAN,GAN之父点赞!
例如,被称为史上最强图像生成器的BigGAN——许多人看到BigGAN生成的图像都要感叹“太逼真了!DeepMind太秀了吧!”
新智元
2019/07/12
5490
DeepMind爆出无监督表示学习模型BigBiGAN,GAN之父点赞!
BigBiGAN问世,“GAN父”都说酷的无监督表示学习模型有多优秀?
众所周知,对抗训练生成模型(GAN)在图像生成领域获得了不凡的效果。尽管基于GAN的无监督学习方法取得了初步成果,但很快被自监督学习方法所取代。
AI科技大本营
2019/07/11
1.1K0
BigBiGAN问世,“GAN父”都说酷的无监督表示学习模型有多优秀?
GAN用于无监督表征学习,效果依然惊人……
近年来,GAN 在图像合成领域取得了惊人的成果,例如先前 DeepMind 提出的 BigGAN。近日,DeepMind 提出全新的 BigBiGAN,引起了社区极大的关注。
机器之心
2019/07/12
6080
GAN用于无监督表征学习,效果依然惊人……
刷新ImageNet纪录,GAN不只会造假!DeepMind用它做图像分类,秒杀职业分类AI
DeepMind的两位大佬,改造了“史上最强”的BigGAN,让新的算法去做图像分类,刷新了ImageNet无监督表征学习的纪录。
量子位
2019/07/15
4670
刷新ImageNet纪录,GAN不只会造假!DeepMind用它做图像分类,秒杀职业分类AI
从自编码器到生成对抗网络:一文纵览无监督学习研究现状
选自Medium 机器之心编译 参与:Nurhachu、蒋思源、吴攀 无监督学习是深度学习的圣杯。它的目的是希望能够用极少量且不需要标注的数据训练通用系统。本文将从无监督学习的基本概念开始再进一步简述无监督学习的各个基础算法及其优缺点。本文作者为专注机器人与视觉研究的 e-Lab 的研究者 Eugenio Culurciello。 如今深度学习模型都需要在大规模的监督数据集上训练。这意味着对于每一个数据,都会有一个与之对应的标签。在很流行的 ImageNet 数据集中,其共有一百万张带人工标注的图片,即 1
机器之心
2018/05/08
1.3K0
从自编码器到生成对抗网络:一文纵览无监督学习研究现状
BigBiGAN的前世今生,走向成熟的特征抽取器
生成模型的基本原则是想要构建一个令人信服的数据示例。图像越逼真,模型掌握目标的证据就越强。生成对抗网络(GAN)凭借其在图像合成方面的出色表现吸引了大量的关注,但 GAN 的一些潜在优势并没有被开发出来,例如无监督表示学习。本文作者为王子嘉,目前在帝国理工学院人工智能硕士在读。
机器之心
2019/07/29
1K0
深度半监督学习方法总结
深度神经网络已被证明在对大量标记数据进行监督学习的训练中是非常有效的。但是大多数现实世界的数据并没有被标记,并且进行全部标记也是不太现实的(需要大量的资源、时间和精力)。为了解决这个问题半监督学习 ( semi-supervised learning) 具有巨大实用价值。SSL 是监督学习和无监督学习的结合,它使用一小部分标记示例和大量未标记数据,模型必须从中学习并对新示例进行预测。基本过程涉及使用现有的标记数据来标记剩余的未标记数据,从而有效地帮助增加训练数据。图 1 显示了 SSL 的一般过程。
deephub
2021/12/01
1.9K0
深度半监督学习方法总结
时间序列自监督学习综述
自监督学习(SSL)是一种机器学习方法,最近在各种时间序列任务上取得了令人印象深刻的表现。SSL最显著的优点是它减少了对标记数据的依赖。基于预训练和微调策略,即使是少量的标记数据也能实现高性能。
算法进阶
2023/08/28
6260
时间序列自监督学习综述
一文看尽深度学习中的生成对抗网络 | CVHub带你看一看GANs架构发展的8年
生成对抗网络 (Generative Adversarial Networks, GANs) 在过去几年中被广泛地研究,其在图像生成、图像转换和超分辨率等领域取得了显著的进步。到目前为止,已经提出了大量基于GANs的相关工作和综述。本文基于柏林圣三一大学计算机科学与统计学院的王正蔚博士与字节跳动AI实验室联合发表的一篇综述[1]为基础,详细的解读GANs的来龙去脉,同时为大家介绍近期一些相关工作,中间也会穿插一些笔者的见解。最后,本文也将列出一些可探索的未来研究方向,希望能给予读者一些启发。
AIWalker
2021/07/05
1.6K0
一文看尽深度学习中的生成对抗网络 | CVHub带你看一看GANs架构发展的8年
深度 | Yoshua Bengio AIWTB大会解读深度生成模型:让机器具备无监督学习能力
机器之心报道 演讲者:Yoshua Bengio 参与:吴攀、蒋思源 面向开发者的世界上最大的人工智能主题在线演讲与对话大会 AI WITH THE BEST(AIWTB)于 2017 年 4 月 29-30 日在 AIWTB 官网上通过在线直播的方式成功举办。作为第三届 AI WITH THE BEST 华语社区独家合作伙伴,机器之心在前两天接连整理报道了生成对抗网络(GAN)的提出者 Ian Goodfellow 和联想 AI 实验室负责人徐飞玉的精彩演讲。今天,我们将呈现的是著名深度学习学者 Yosh
机器之心
2018/05/08
8120
深度 | Yoshua Bengio AIWTB大会解读深度生成模型:让机器具备无监督学习能力
Paper | CVPR 2019 Image Caption 之 无监督图像描述
论文作者:Yang Feng, Lin Ma, Wei Liu, Jiebo Luo
用户3946442
2022/04/11
7390
Paper | CVPR 2019 Image Caption 之 无监督图像描述
17种GAN变体的Keras实现请收好 | GitHub热门开源代码
△ 来源:Kaggle blog 从2014年诞生至今,生成对抗网络(GAN)始终广受关注,已经出现了200多种有名有姓的变体。 这项“造假神技”的创作范围,已经从最初的手写数字和几百像素小渣图,拓展
量子位
2018/03/20
1.7K0
17种GAN变体的Keras实现请收好 | GitHub热门开源代码
深度学习进阶篇[9]:对抗生成网络GANs综述、代表变体模型、训练策略、GAN在计算机视觉应用和常见数据集介绍,以及前沿问题解决
生成模型:p(x) 即观测x出现的概率。如果有标签则表示为: p(x|y) 指定标签y生成x的概率。
汀丶人工智能
2023/06/01
3K0
深度学习进阶篇[9]:对抗生成网络GANs综述、代表变体模型、训练策略、GAN在计算机视觉应用和常见数据集介绍,以及前沿问题解决
强数据所难!SSL(半监督学习)结合GAN如何?
众所周知,标注工作往往费时耗力甚至不可行。而类似深度学习等的机器学习方法,在缺乏带标签数据下,效果大打折扣甚至无法施展。
公众号机器学习与AI生成创作
2020/04/27
1.3K0
无监督学习 – Unsupervised learning | UL
无监督学习是一种机器学习的训练方式,它本质上是一个统计手段,在没有标签的数据里可以发现潜在的一些结构的一种训练方式。
easyAI
2019/12/18
3.5K0
无监督学习 – Unsupervised learning | UL
DeepMind综述无监督学习:通用智能路上的踏脚石,让AI更聪明
在过去十年中,机器学习在图像识别、自动驾驶汽车和围棋等领域取得了前所未有的进步。这些成功在很大程度上是靠监督学习和强化学习来实现的。
量子位
2019/04/22
9790
DeepMind综述无监督学习:通用智能路上的踏脚石,让AI更聪明
大规模计算时代:深度生成模型何去何从
人工智能的核心愿望之一是开发算法和技术,使计算机具有合成我们世界上观察到的数据的能力, 比如自然语言,图片等等。
AI科技评论
2020/04/16
9700
基于生成表征的自条件图像生成
最近利用人类标注的类别条件、文字描述等的条件图像生成达到了令人印象深刻的效果,然而无条件生成还不能达到令人满意的效果。这一定程度上反映了有监督学习和无监督学习之间的差距。从历史发展来看,无监督学习一直落后于监督学习。这种差距随着自监督学习( SSL )的出现而缩小,SSL从数据本身产生监督信号,实现了与监督学习相比具有竞争力或更优越的结果。
用户1324186
2024/01/05
4070
基于生成表征的自条件图像生成
Facebook AI何恺明又一新作 | 研究MoCo(动量对比学习),超越Hinton的SimCLR,刷新SOTA准确率
经常闲逛何老师主页,应该有所察觉,Facebook AI的何凯明老师有来一个新作,这次更加猛烈,远远比Hinton老师的SimCLR还要优秀,今天“计算机视觉研究院”一起和大家来分享,一起来学习!
计算机视觉研究院
2020/04/15
2.3K0
Facebook AI何恺明又一新作 | 研究MoCo(动量对比学习),超越Hinton的SimCLR,刷新SOTA准确率
推荐阅读
DeepMind开源最牛无监督学习BigBiGAN预训练模型
6980
DeepMind爆出无监督表示学习模型BigBiGAN,GAN之父点赞!
5490
BigBiGAN问世,“GAN父”都说酷的无监督表示学习模型有多优秀?
1.1K0
GAN用于无监督表征学习,效果依然惊人……
6080
刷新ImageNet纪录,GAN不只会造假!DeepMind用它做图像分类,秒杀职业分类AI
4670
从自编码器到生成对抗网络:一文纵览无监督学习研究现状
1.3K0
BigBiGAN的前世今生,走向成熟的特征抽取器
1K0
深度半监督学习方法总结
1.9K0
时间序列自监督学习综述
6260
一文看尽深度学习中的生成对抗网络 | CVHub带你看一看GANs架构发展的8年
1.6K0
深度 | Yoshua Bengio AIWTB大会解读深度生成模型:让机器具备无监督学习能力
8120
Paper | CVPR 2019 Image Caption 之 无监督图像描述
7390
17种GAN变体的Keras实现请收好 | GitHub热门开源代码
1.7K0
深度学习进阶篇[9]:对抗生成网络GANs综述、代表变体模型、训练策略、GAN在计算机视觉应用和常见数据集介绍,以及前沿问题解决
3K0
强数据所难!SSL(半监督学习)结合GAN如何?
1.3K0
无监督学习 – Unsupervised learning | UL
3.5K0
DeepMind综述无监督学习:通用智能路上的踏脚石,让AI更聪明
9790
大规模计算时代:深度生成模型何去何从
9700
基于生成表征的自条件图像生成
4070
Facebook AI何恺明又一新作 | 研究MoCo(动量对比学习),超越Hinton的SimCLR,刷新SOTA准确率
2.3K0
相关推荐
DeepMind开源最牛无监督学习BigBiGAN预训练模型
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档