Loading [MathJax]/jax/input/TeX/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >谷歌大脑AutoML最新进展:不断进化的阿米巴网络

谷歌大脑AutoML最新进展:不断进化的阿米巴网络

作者头像
量子位
发布于 2018-07-24 07:39:35
发布于 2018-07-24 07:39:35
4990
举报
文章被收录于专栏:量子位量子位
原作 Esteban Real Root 编译自 Google Research Blog 量子位 出品 | 公众号 QbitAI

自然界用了5亿年时间。

才把神经系统从最原始的雏形——阿米巴(Amoeba)变形虫分化出可对外界环境刺激做出响应的内浆,进化到现在的高度复杂的人脑。

如今我们人脑,相对目前阶段的机器来说,可以轻而易举完成各种复杂的任务。

而机器的算法模型要做到同样表现(能力范围还非常局限),必须得靠大量的在AI领域里深耕多年的专家才行。

像认猫、识图、辨别基因突变、或者是诊断疾病这些专项的任务,每一个有效的模型的搭建和调试都必须重度依赖AI专家的经验。

有没有什么方法,训练出一个据外界环境的变化,像阿米巴变形虫那样即时调整出最优的生存策略,不断自我进化获取最优结果的算法呢?

自进化的AmoebaNet

还真的有。

谷歌大脑今日就在研究博客更新,他们已经研究出了一种拥有很强的自我进化能力的神经网络,AmoebaNet。

这个工作的研究基础是2002年Stanley和Miikkulainen的神经进化拓扑学。而其他研究机构,OpenAI,Uber实验室,还有DeepMind他们也有在研究自进化的算法。

谷歌本身有强大的算力优势。所以谷歌大脑团队在琢磨,除了采用强化学习这种方法,怎么样才能能让图像分类器的迭代速度加快。

迭代速度快还不够,出来的效果也必须好,最好还不需要重度依赖专家。毕竟现在问题那么多,AI专家根本不够用。

快、好、省。这就是谷歌大脑要AmoebaNet满足的三个点。

做到快、好、省的思考路径

2017年ICML(国际机器学习大会),谷歌大脑发表了一篇论文Large-Scale Evolution of Image Classifiers。这个工作采用了非常简单的神经网络,以及简单的初始设定,让算法自己去进化出网络架构。当时这个算法的效果就已经可以媲美人工手调的模型了。

这项工作出来之后,大家还是挺激动的。因为这意味着越来越多的AI应用可以一定程度上减少模型人工搭建调试的压力。

这下,对没有时间进阶成一个AI专家的用户来说,也能获得一个效果越来越好的模型了。

谷歌大脑思考的下一个问题是,人工手调和自我进化结合的模型,效果会不会比单独的要好?

(人机结合疗效好?)

所以,谷歌大脑最近的一篇论文Regularized Evolution for Image Classifier Architecture Search就开始采用更为复杂些的网络以及优化过的初始设定,还用上了谷歌最新的TPUv2芯片。

这一次,谷歌大脑把最高配的硬件,AI专家的经验,以及自我进化的算法全砌上,就看在CIFAR-10和ImageNet上跑的效果怎么样了。

先看算法自我迭代的过程&效果

下图出自谷歌大脑的第一篇论文,每一个点代表用CIFAR-10训练后得到的神经网络。

神经网络进化的实验过程。四张表代表了不同时期进化得到的神经网络架构,最右的是精确性表现最好的神经网络架构。前面三个都是最好的架构的前身。

刚开始,整个神经网络群都没有隐藏层,组成架构都是上千个一样的简单种子模型。

一开始用的种子模型(这一步还没有结合AI专家的经验),每次自我迭代之后,评估神经网络的分类表现。

把表现最好的,也就是分类结果最准确的神经网络挑出来,当作母代模型,用于下一次迭代。

然后在母代模型的基础上,做微调,进化生成更多的子代模型,归进整个神经网络群中(相当于进化生物学里的种群的概念)。

表现不是最好的模型就没有变异进化的机会。

谷歌大脑第一篇论文的工作涉及到的变异都很简单。

比方说,随机移除一个卷积层,或者在随意两层之间加一个连接,或者是改变学习的速率等等。

该工作的结果可以看出来自我进化算法的巨大潜力,虽然搜索空间的质量可能麻麻地(dei)。

举个栗子。

如果把其中一个种子模型改成Inception-ResNet分类器的话,那么可能会得到一个错误的结论:现在这个算法表现还不错,得到一个比较满意的结果了。

但是这样操作的话,我们就把这次的变异操作硬编码了(把这次行为固定下来了,以后不好改),这样的话就变成以最终结果数值为导向,而不是终极效果目标为导向了。

把其他可能性灭掉后,就达不到进化的目的了。

在这个工作里,谷歌大脑把人工操作的部分压缩到最小范围,包含对ReLUs和批标准化层的干预。

再看人机结合后的模型效果

在上一次工作之后,谷歌大脑想减少模型进化过程中的试错成本。采用2017年Zoph的类inception模块,有效地把搜索空间缩小,并固定了神经网络的架构,其中网络上节点的模块是可以替换掉的。

2017年Zoph引入的类inception模块。

最左边的那个图,指的是整个神经网络的外部架构,输入的数据从底部往上处理。

最右边的图,是神经网络节点上的模块内部框架。

整个网络的目标是产出精确性最高的输出结果。

人机结合后模型的变异,是随机重连输出,或者随机替换模块。最后进化出来的模型是高质量的。

不同方法得到的模型效果对比

自进化、强化学习、随机搜索产生的模型对比。

从图可以看出,在训练的早期,自我进化的模型用最少的算力就获得了最好的效果。

另外,自我进化模型很重要的一个特征是,最旧的、很久没获得变异机会的模型会被弃掉。这样整个神经网络群的进化速度会越来越快。更多细节可以参考论文。

最后,附阿米巴网络AmoebaNet论文地址: https://arxiv.org/abs/1802.01548

& 编译来源: https://research.googleblog.com/2018/03/using-evolutionary-automl-to-discover.html

你可能感兴趣

别访问外国网站了,谷歌机器学习速成课25讲视频全集在此

谷歌开源语义图像分割模型DeepLab-v3+ | 附代码

首个72量子比特的量子计算机问世,谷歌出品

破解AI大脑黑盒迈出新一步!谷歌现在更懂机器,还开源了研究工具

DIY发现新行星操作指南 | 谷歌开源了行星发现代码

绿幕通通扔掉 ੧ᐛ੭ | 谷歌AI实时「抠」背景

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-03-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
谷歌大脑AutoML新进展:用进化算法发现神经网络架构
作者|谷歌大脑高级工程师 Esteban Real 编译|Debra 从 5 亿年前非常简单的蠕虫大脑到各种现代化结构,大脑经历了漫长的进化过程。如今,人类的大脑可以毫不费力地完成各种各样的活动,例如,告诉我们在某一个视觉场景中是否包含动物或建筑物。然而,为了执行这些简单的任务,开发人工神经网络的专家则需要经过数年甚至数十年的艰难研究和缜密的设计,并且通常需要设定网络完成一项具体目标,例如查找照片中的遗传变异,或辅助诊断疾病。理想情况下,人们希望能够有一种方法,能够自动化为任何给定的任务生成合适的架构。
刀刀老高
2018/04/10
9420
谷歌大脑AutoML新进展:用进化算法发现神经网络架构
业界 | 进化算法 + AutoML,谷歌提出新型神经网络架构搜索方法
选自Google Research Blog 作者:Esteban Real 机器之心编译 参与:刘晓坤、路雪、李亚洲 通过在 AutoML 中结合进化算法执行架构搜索,谷歌开发出了当前最佳的图像分类模型 AmoebaNet。本文是谷歌对该神经网络架构搜索算法的技术解读,其中涉及两篇论文,分别是《Large-Scale Evolution of Image Classifiers》和《Regularized Evolution for Image Classifier Architecture Search
机器之心
2018/05/08
9430
业界 | 进化算法 + AutoML,谷歌提出新型神经网络架构搜索方法
谷歌AutoML新进展,进化算法加持,仅用数学运算自动找出ML算法
AutoML-Zero 旨在通过从空程序或随机程序开始,仅使用基础数学运算,来自动发现能够解决机器学习任务的计算机程序。其目标是同时搜索 ML 算法的所有属性,包括模型结构和学习策略,同时将人类偏见最小化。
机器之心
2020/07/14
5580
谷歌AutoML新进展,进化算法加持,仅用数学运算自动找出ML算法
欧盟「人脑计划」​最新进展:新算法模拟生物进化,为大脑如何工作提供新见解
编辑/凯霞 2013 年,欧盟「人脑计划」(Human Brain Project,HBP)正式启动,是欧洲最大的脑科学项目,也是欧盟资助的最大研究项目之一。是欧盟首批为期 10 年、预算 10 亿欧元的「旗舰」项目。这是继人类基因组计划之后的又一个全球性的大科学项目。 在神经科学和信息技术的接口上,HBP 借助计算、神经信息学和人工智能的高度先进方法研究大脑及其疾病,进而推动类脑计算和神经机器人等领域的创新。 HBP 主要创始人、著名神经科学家亨利·马克拉姆(Henry Markram)提出,「在 10
机器之心
2023/03/29
4060
欧盟「人脑计划」​最新进展:新算法模拟生物进化,为大脑如何工作提供新见解
TPU加AutoML:50美元快速训练高效的ImageNet图像分类网络
机器之心整理 参与:刘晓坤、思源 昨日,Jeff Dean 在推特上表示他们在 ImageNet 图像分类上发布了新的 DAWNBench 结果,新型 AmoebaNet-D 网络在 TPU 上实现了最低的训练时间和最少的训练成本。在这一个基准测试上,基于进化策略的 DAWNBench 要比残差网络效果更好,且训练成本降低了一倍。机器之心简要介绍了该基准测试和 AmoebaNet 网络架构,并提供了使用 TPU 进行 AmoebaNet 试验的项目地址。 Jeff Dean 展示的两个基准测试都是 DAWN
机器之心
2018/05/08
7940
TPU加AutoML:50美元快速训练高效的ImageNet图像分类网络
谷歌大脑撰文解析 AutoML:神经网络如何自行设计神经架构? | Google I/O 2017
在 Google I/O 大会上,谷歌公布了最新的机器学习算法——AutoML,随即,Quoc Le 与 Barret Aoph 大神在 Google Research Blog 上发布了一篇名为《采用机器学习探索神经网络架构》的文章。AI科技评论进行了编译,并做了不改动原意的编辑和修改。 「在谷歌团队,我们成功地将深度学习模型应用于非常多的领域,从图像识别、语音识别到机器翻译等等。自然,这些工作离不开一整支工程师与科学家团队的努力。人工设计机器学习模型的过程实际上绝非坦途,因为所有可能组合模型背后的搜
AI科技评论
2018/03/13
8430
谷歌大脑撰文解析 AutoML:神经网络如何自行设计神经架构? | Google I/O 2017
Transformer在进化!谷歌大脑用架构搜索方法找到Evolved Transformer
在过去的几年里,神经架构搜索领域取得了极大进展。通过强化学习和进化得到的模型已经被证明可以超越人类设计的模型(Real et al., 2019; Zoph et al., 2018)。这些进展大多聚焦于改善图像模型,但也有一些研究致力于改善序列模型(Zoph & Le, 2017; Pham et al., 2018)。但在这些研究中,研究者一直致力于改良循环神经网络(RNN),该网络长期以来一直用于解决序列问题(Sutskever et al., 2014; Bahdanau et al., 2015)。
机器之心
2019/04/30
6790
Transformer在进化!谷歌大脑用架构搜索方法找到Evolved Transformer
谷歌大脑发布神经架构搜索新方法:提速1000倍
岳排槐 发自 LZYY 量子位 出品 | 公众号 QbitAI 去年,谷歌大脑团队发布神经网络自动架构搜索(NAS)。这个方法理论上能够更好地、自动化地设计神经网络的架构。 尽管NAS表现出色,但却要
量子位
2018/03/21
8340
谷歌大脑发布神经架构搜索新方法:提速1000倍
AutoML又一利器来了,谷歌宣布开源AdaNet(附教程)
今天,谷歌宣布开源AdaNet,这是一个轻量级的基于TensorFlow的框架,可以在最少的专家干预下自动学习高质量的模型。
新智元
2018/12/06
1.1K0
AutoML又一利器来了,谷歌宣布开源AdaNet(附教程)
神经架构搜索在视频理解中研究进展的综述
作者 | Michael S. Ryoo 研究员与 AJ Piergiovanni 学生研究员(Google 机器人团队)
AI科技大本营
2019/12/11
8360
神经架构搜索在视频理解中研究进展的综述
深度学习陷入困境,或可从进化论中找到新的突破口
大概自 2012 年以后 [1],人工智能行业的爆发式增长几乎都是反向传播训练的(深度学习)神经网络模型所带来的。包括用于图形分类、自动语音识别、语言翻译、机器人以及能玩单人或多人游戏的自主智能体等领域的模型。
小白学视觉
2019/11/07
5170
深度学习陷入困境,或可从进化论中找到新的突破口
归一化激活层的进化:谷歌Quoc Le等人利用AutoML 技术发现新型ML模块
批归一化和激活函数是深度神经网络的重要组成部分,二者的位置常常重合。以往的神经网络设计中通常对二者分别进行设计,而最近谷歌大脑和 DeepMind 研究人员合作提出了一种新方案:将二者统一为一个计算图,从低级原语开始进行结构进化。研究者利用层搜索算法发现了一组全新的归一化-激活层 EvoNorms。这些层中的一部分独立于批统计量(batch statistics)。
机器之心
2020/04/14
6830
归一化激活层的进化:谷歌Quoc Le等人利用AutoML 技术发现新型ML模块
综述 | 深度学习的最新进展
来源:机器学习研习院本文约10500字,建议阅读20+分钟本文我们将简要讨论近年来关于深度学习的最新进展。 “ 综述永远是入门新领域的最快捷径之一!” Recent Advances in Deep Learning:An Overview 摘要:深度学习是机器学习和人工智能研究的最新趋势之一。它也是当今最流行的科学研究趋势之一。深度学习方法为计算机视觉和机器学习带来了革命性的进步。新的深度学习技术正在不断诞生,超越最先进的机器学习甚至是现有的深度学习技术。近年来,全世界在这一领域取得了许多重大突破。由于
数据派THU
2022/07/07
9540
综述 | 深度学习的最新进展
谷歌开源基于TensorFlow的通用框架AdaNet,快速且易于使用
Ensemble learning结合不同机器学习模型预测,被广泛用于神经网络以实现最先进的性能,得益于丰富的历史和理论保证,成功的挑战,如Netflix奖和各种Kaggle竞赛。然而,由于训练时间长,它们在实践中使用不多,机器学习模型候选者选择需要其自己的领域专业知识。但随着计算能力和专用深度学习硬件(如TPU)变得越来越容易获得,机器学习模型将变得更大,整体效果将变得更加突出。现在,想象一个工具可以自动搜索神经架构,并学会将最好的架构组合成一个高质量的模型。
AiTechYun
2018/12/06
5620
【深度学习进化论】谷歌大脑神经演化新算法 PK OpenAI 集群智能
【新智元导读】神经演化方法在上世纪80年代被提出,由于神经网络的兴起而一度遭受冷遇。不过现在,谷歌大脑和 OpenAI 都在重新审视这种方法。通过在深度学习中引入大自然的智慧——演化/适者生存,我们能够得到更聪明、更有效的算法吗? 现代人工智能被开发来模仿自然——人工智能领域的主要追求是在计算机里复制人类生理决策的过程。 30 多年来,大多数 AI 在类脑方面的发展都围绕着“神经网络”,这个词借用了神经生物学的术语,将机器思维描述为数据在神经元——彼此相连的数学函数——之间的运动。但自然还有其他的妙法:计
新智元
2018/03/27
7750
谷歌大脑提出AutoML-Zero,只会数学运算就能找到AI算法,代码已开源
接着谷歌又推出了AlphaGo Zero,只让AI知道围棋规则,从零开始学下棋,结果再次登上棋艺顶峰。
量子位
2020/03/12
5200
谷歌大脑提出AutoML-Zero,只会数学运算就能找到AI算法,代码已开源
谷歌开源集成学习工具AdaNet:2017年提出的算法终于实现了
最近,谷歌在GitHub上发布了用TensorFlow实现的AutoML框架——AdaNet,它改进了集成学习的方法,能以最少的专家干预实现自动习得高质量模型。
量子位
2018/12/11
6440
谷歌开源集成学习工具AdaNet:2017年提出的算法终于实现了
好嗨哟~谷歌量子神经网络新进展揭秘
谷歌人工智能量子团队自成立以来,一直致力于理解量子计算在机器学习中的作用。现有算法对全局优化的作用表明,量子计算机可能有助于更快地训练机器学习中的现有模型,因此谷歌正在构建实验型的量子计算机来调查复杂的量子系统是如何进行这些计算的。虽然这项研究可能很有价值,但还无法证明量子计算机能够提供一种方式来了解物理系统中的复杂模式,这一点传统的计算机任何时候都无法做到。
机器之心
2018/12/28
7840
好嗨哟~谷歌量子神经网络新进展揭秘
学界 | 进化算法可以不再需要计算集群,开普敦大学的新方法用一块GPU也能刷新MNIST记录
AI 科技评论按:进化算法和生成式对抗性网络GANs类似,提出时大家都觉得是很好的想法,可以帮人类极大地拓展行为和想象空间,然而找到好的、可控的实现方法却没那么简单。GANs方面现在已经有了许多的成果,但是进化算法仍然停留在较为初期的状态,无法生成大规模、复杂的网络,需要的计算资源也是在计算集群的级别上。 不过,进化算法的研究也是一步步在“进化”的,最近这项来自南非开普敦大学的研究就带来了新的发现,只用单块GPU的资源就进化出了理想的网络结构,还刷新了三项测试的结果。雷锋网 AI 科技评论把背景和这篇论
AI科技评论
2018/03/14
8070
学界 | 进化算法可以不再需要计算集群,开普敦大学的新方法用一块GPU也能刷新MNIST记录
7 Papers | 微信团队等NumNet论文;神经算术逻辑单元评价方法;将量子电路转为机器学习模型
论文 1:Parameterized quantum circuits as machine learning models
机器之心
2019/10/23
5550
7 Papers | 微信团队等NumNet论文;神经算术逻辑单元评价方法;将量子电路转为机器学习模型
推荐阅读
谷歌大脑AutoML新进展:用进化算法发现神经网络架构
9420
业界 | 进化算法 + AutoML,谷歌提出新型神经网络架构搜索方法
9430
谷歌AutoML新进展,进化算法加持,仅用数学运算自动找出ML算法
5580
欧盟「人脑计划」​最新进展:新算法模拟生物进化,为大脑如何工作提供新见解
4060
TPU加AutoML:50美元快速训练高效的ImageNet图像分类网络
7940
谷歌大脑撰文解析 AutoML:神经网络如何自行设计神经架构? | Google I/O 2017
8430
Transformer在进化!谷歌大脑用架构搜索方法找到Evolved Transformer
6790
谷歌大脑发布神经架构搜索新方法:提速1000倍
8340
AutoML又一利器来了,谷歌宣布开源AdaNet(附教程)
1.1K0
神经架构搜索在视频理解中研究进展的综述
8360
深度学习陷入困境,或可从进化论中找到新的突破口
5170
归一化激活层的进化:谷歌Quoc Le等人利用AutoML 技术发现新型ML模块
6830
综述 | 深度学习的最新进展
9540
谷歌开源基于TensorFlow的通用框架AdaNet,快速且易于使用
5620
【深度学习进化论】谷歌大脑神经演化新算法 PK OpenAI 集群智能
7750
谷歌大脑提出AutoML-Zero,只会数学运算就能找到AI算法,代码已开源
5200
谷歌开源集成学习工具AdaNet:2017年提出的算法终于实现了
6440
好嗨哟~谷歌量子神经网络新进展揭秘
7840
学界 | 进化算法可以不再需要计算集群,开普敦大学的新方法用一块GPU也能刷新MNIST记录
8070
7 Papers | 微信团队等NumNet论文;神经算术逻辑单元评价方法;将量子电路转为机器学习模型
5550
相关推荐
谷歌大脑AutoML新进展:用进化算法发现神经网络架构
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档