Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >MIT警告深度学习正逼近算力极限,突破瓶颈会让人类成为上帝?

MIT警告深度学习正逼近算力极限,突破瓶颈会让人类成为上帝?

作者头像
新智元
发布于 2020-07-23 15:06:52
发布于 2020-07-23 15:06:52
1.3K0
举报
文章被收录于专栏:新智元新智元

新智元报道

编辑:白峰、鹏飞

【新智元导读】MIT等研究发现,深度学习的进展「非常依赖」算力的增长,而现有算力天花板即将被触及,急需革命性的算法才能让AI更有效地学习。如果算力能够突破极限,人类将会成为「计算中的上帝」吗?

摩尔定律提出的时候,人们从来没有想到过芯片的算力会有到达极限的一天,至少从来没有想到芯片算力极限会这么快到来。

MIT发出警告:算力将探底,算法需改革

近日,MIT发出警告:深度学习正在接近现有芯片的算力极限,如果不变革算法,深度学习恐难再进步。

根据麻省理工学院研究人员的一项研究,深度学习的进展「非常依赖」算力的增长。他们断言,必须发明革命性的算法才能更有效地使用深度学习方法。

研究人员分析了预印本服务器Arxiv.org上的1058篇论文和其他基准资料,以理解深度学习性能和算力之间的联系,主要分析了图像分类、目标检测、问题回答、命名实体识别和机器翻译等领域两方面的计算需求:

1、给定深度学习模型中单次遍历(即权值调整)所需的浮点运算数。

2、训练整个模型的硬件负担,用处理器数量乘以计算速度和时间来估算。

研究结果表明,除从英语到德语的机器翻译(使用的计算能力几乎没有变化)外,所有基准均具有「统计学上显著」的斜率和「强大的解释能力」。

命名实体识别和机器翻译对于硬件的需求大幅增加,而结果的改善却相对较小。更有甚者,算力增长为ImageNet上的图像分类模型贡献了43%的准确率。

根据多项式和指数模型的预测,通过深度学习获得相应性能基准所需的算力(以Gflops为单位),碳排放量和经济成本,最乐观的估计,ImageNet分类误差要想达到1%,需要10^28 Gflops的算力,这对硬件来说是不小的压力。

网友评论:算力提升不一定要堆更多晶体管

这篇论文发表后,在reddit上引发了网友热议。算力还可能再提高吗,能不能搞出更贴合人脑的计算芯片?

网友@respecttox认为,现在的硬件算力提升有些误区,不一定非得在晶体管上堆更多的晶体管,我们需要更好的框架来支持底层条件计算以及相应的硬件改进。理想情况下,用消费级的GPU就能跑很多深度模型。

这样的GPU值得期待,动辄上万的N卡,对很多学生党来说的确是不小的障碍。

那人类大脑是一台超级计算机吗?这个问题此前有过很多讨论,网友@Red-Portal认为就功耗而言,大脑并不是超级计算机。在这方面,简单地认为更多的计算能力将为我们提供人类智能的想法就产生了误导,因为它并不是真正的「人工智能」。

就大脑中神经元的数量来说绝对可以称的上「超级」,至于它的能耗为啥这么低,低到跟现实中的计算机相比几乎可以忽略不计,谁又能拿出证据说,大脑不可能有一个更高效的计算机制?

神经科学家也参与进来了。他认为人脑和神经网络最大的两个差异可能是A:大脑区域之间和内部的反馈令人难以置信,B:神经元比人工神经网络中的节点有更多的非线性。非线性才是导致人脑如此优于「人工智能」的根本原因。

计算机不断在人脑中汲取经验,各种类脑芯片也如雨后春笋一般被制造出来。量子计算也取得了惊人的进步,霍尼韦尔宣称已经造出64量子体积的计算机。随着软件算法和硬件算力的协同进步,未来机器的算力甚至于智力会超过人类吗?

算力接近无限会出现什么情况,会让人类成为上帝吗?

虽然物理世界一直在阻碍我们走向无限的终点,但我们自有办法在精神世界去突破物理限制,畅想在无限的边界。

当亚马逊设备高级副总裁David Limp畅想亚马逊人工智能助手Alexa的未来时,他想象了一个与《星际迷航》不一样的世界:在未来,你可以在任何地方,问任何事情,一台环境计算机将在那里满足你的每一个需求。

「想象一下,在不远的未来,你可以拥有无限的计算能力和无限的存储空间让你可以抛开服务器的束缚,你会做什么呢?」

Leiden大学研究院Steven de Rooij认为,无限算力将大大打破物理学定律。

经典计算机可以模拟量子系统,但它的速度从根本上比量子计算机慢。

但如果拥有无限的计算能力,一台经典计算机可以在眨眼间模拟任何物理系统。是的,这将涉及到信息传播速度超过光速。

我们可以做的事情有:

  1. 用暴力瞬间解决任何优化问题,这将成为非常简单的程序。例如,一个程序员可以在一个下午轻松地写出象棋、围棋、拼字游戏的无敌对手。制造汽车发动机的最佳方法是什么?一架飞机?太阳能电池板?简单地尝试所有可能的设计,然后选择一个性能最好的设计!
  2. 我们就解决了停顿的问题:只要运行程序,如果程序没有立即停止,就永远不会停止了。
  3. 如果我们能解决停顿问题,那么很多不可计算的函数就会变得可计算。特别是,我们可以计算Kolmogorov复杂性。这又可以建立理论上理想的学习系统。我们就可以建立理想的推理引擎,可以在任何数据中找到任意模式,并泛化到未来。我相信用不了多久,成熟的超智能人工智能就会出现,并让人类被淘汰。

这是不是意味着《计算中的上帝》所描述的,在宇宙中那个操控一切的超级生命?

届时,《西部世界》《我。机器人》中的剧情,将变得像现在我们玩的刺客信条一样可以轻松实现,人类是否会成为「上帝」呢?

但这样一来,也会带来很多未知的问题。显而易见的问题之一就是现有的人类伦理道德将会受到极大的挑战。

Louisiana State大学博士William Donahue抛出了一个有趣的话题。

如果我们对身体的每一个细胞的细胞信号和功能进行高度详细的模拟,我们就会拥有终极的医学研究工具。我们可以模拟药物和其他治疗方法对人类的影响,而不需要任何动物。

如果我们有这样的模型,我说的不是一个简单的可视化,而是整个事情到每一个原子,我们开始一个神经元发射,那么我们是否会创造一个活人?在模拟环境中使用它们会是道德的吗?

亲爱的读者,你怎么看?

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-07-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
深度学习已至“瓶颈”?英特尔:数据处理是一剂良药
前不久,霍金弟子、约翰霍普金斯大学教授Alan Yuille发表言论称,至少在计算机视觉领域,深度学习的瓶颈已至。
新智元
2019/07/05
3900
深度学习已至“瓶颈”?英特尔:数据处理是一剂良药
IBM 发布首个深度学习类脑超级计算平台 IBM TrueNorth
【新智元导读】IBM 日前发布了一款用于深度学习的类脑超级计算平台 IBM TrueNorth。新智元芯片专家群的几位专家讨论后认为:TrueNorth 虽然与人脑某些结构和机理较为接近,但智能算法的
新智元
2018/03/21
1.9K0
IBM 发布首个深度学习类脑超级计算平台 IBM TrueNorth
MIT警告深度学习正在逼近计算极限,网友:放缓不失为一件好事
深度学习需要大量数据和算力,这二者的发展是促进这一次人工智能浪潮的重要因素。但是,近期 MIT 的一项研究认为,深度学习正在逼近算力极限。
机器之心
2020/07/24
4620
MIT警告深度学习正在逼近计算极限,网友:放缓不失为一件好事
错误率减半需要超过500倍算力!深度学习的未来,光靠烧钱能行吗?
那一年,时任康奈尔大学航空实验室研究心理学家与项目工程师的 Frank Rosenblatt 受到大脑神经元互连的启发,设计出了第一个人工神经网络,并将其称为一项"模式识别设备"。
AI科技评论
2021/10/11
4020
错误率减半需要超过500倍算力!深度学习的未来,光靠烧钱能行吗?
戴琼海:深度学习遭遇瓶颈,全脑观测启发下一代AI算法
8月29日至30日,主题为“智周万物”的2020年中国人工智能大会(CCAI 2020)在位于江苏南京的新加坡·南京生态科技岛举办。
AI科技评论
2020/09/04
1.1K0
MIT警示“深度学习过度依赖算力”,研究三年算法不如用10倍GPU
目前深度学习的繁荣过度依赖算力的提升,在后摩尔定律时代可能遭遇发展瓶颈,在算法改进上还需多多努力。
AI科技评论
2020/07/18
1.9K0
MIT警示“深度学习过度依赖算力”,研究三年算法不如用10倍GPU
【详解】如何让智能深度学习,突破数据瓶颈?
基于生物神经元的下一代深度学习 「虽然目前的深度学习在语音识别和图像识别方面取得了突破性进步,但如果把深度学习用于绝大多数的其他领域,比如说自动驾驶、实体机器人等,就会面临一个来自于真实世界的非常大的
BestSDK
2018/02/27
1K0
【详解】如何让智能深度学习,突破数据瓶颈?
2014突破性科学技术研究:神经形态芯片
本文为作者 Robert D. Hof 发表在 MIT TechnologyReview 网站上的《Neuromorphic Chips》一文,是《2014突破性科学技术》系列文章的第4篇,主要讲述了高通等公司研发的微处理器可以像人脑一样计算,这样计算机就可以知道它们周围发生了什么事情。 突破点:计算机芯片的另外一种设计方法,增强了人工智能的计算效率。 突破理由:传统的芯片已经接近理论性能极限。 主要参与者:高通、IBM、HRL 实验室、人脑项目 一个名叫先锋(pioneer)的小机器人缓缓地走到一张印有
大数据文摘
2018/05/21
5770
AI 劳动节创意盘点:绘画、写作、识别情绪……匹敌人类创造力
【新智元导读】AI 正在展示出真正的创造力,它们像梵高一样绘画,像莎翁一样写作,像人类编剧一样创作着电影剧本。设计公司 SketchDeck 的联合创始人兼 CTO David Mack 认为,没有理由认为 AI 不能像人类那样具有创造力。在 AI 巨大的潜能中,只需进步一点点,就足以匹敌人类的创造力了。 长期以来,人类在宇宙中占有特殊的地位。犹太—基督教的神根据他自己的形象造出了人。柏拉图相信“logos”——心灵——是不朽的。而在上个世纪,人们都知道,人类比计算机更好,因为计算机好像有点……傻。 而今我
新智元
2018/03/28
1.2K0
AI 劳动节创意盘点:绘画、写作、识别情绪……匹敌人类创造力
全球首台!仿人脑超算「深南」即将面世,突破摩尔定律,能耗降低几个数量级
人脑作为地球上最为高效的计算设备,可以仅仅用20w的功率,1.3公斤的质量,就能完成每秒100万亿次的运算量。
新智元
2024/01/04
2110
全球首台!仿人脑超算「深南」即将面世,突破摩尔定律,能耗降低几个数量级
波音公司探索飞行AI,模拟人类大脑制造芯片!
波音公司正在创建一个新的部门,专注于研究看似来自科幻小说的技术,包括模仿人类大脑神经元突触的超快速计算和基于应用量子物理学的防黑客通信链。
新智元
2018/11/22
5510
贯穿计算机历史长河的幽灵竟是一张“彩票”,深度学习也曾被诅咒
先以数学为例。曾经繁荣一时的毕达哥拉斯学派曾提出“万物皆数”,也即“一切数均可表示成整数或整数之比”,这也成为这一学派的数学信仰。——后来该学派中的一个成员希巴斯带着
AI科技评论
2020/09/24
6450
贯穿计算机历史长河的幽灵竟是一张“彩票”,深度学习也曾被诅咒
突破摩尔定律极限!前谷歌量子计算团队首创「热力学计算机」,英伟达GPU「退役」?
比起当前的CPU、GPU、TPU、FPGA等数字处理器,这种全新的AI加速器快了数个数量级,而且更加节能。
公众号-arXiv每日学术速递
2024/04/30
1490
突破摩尔定律极限!前谷歌量子计算团队首创「热力学计算机」,英伟达GPU「退役」?
世界首颗3D芯片诞生!集成600亿晶体管,突破7nm制程极限
---- 新智元报道   编辑:桃子 拉燕 【新智元导读】周四,英国的明星AI芯片公司Graphcore发布了一款IPU产品Bow,采用台积电3D封装技术,性能提升40% ,首次突破7纳米工艺极限。 全球首颗3D封装芯片诞生! 周四,总部位于英国的AI芯片公司Graphcore发布了一款IPU产品Bow,采用的是台积电7纳米的3D封装技术。 据介绍,这款处理器将计算机训练神经网络的速度提升40%,同时能耗比提升了16%。 600亿晶体管,首颗3D芯片诞生 能够有如此大的提升,也是得益于台积电的3D
新智元
2022/03/09
4700
Yann LeCun“隔纸对话”黄铁军:图灵机上的深度学习能模拟世界吗?
上述言论每一句都毫不留情,透着耿直的味道。他的推特,也早就成了AI圈吃瓜群众的快乐源泉。
AI科技评论
2021/09/16
5350
MIT发出「算力」警告:深度学习正在逼近计算极限
近日,MIT却发出警告:深度学习正在接近计算极限,必须转变现有技术「大幅」提高计算效率。
新智元
2020/07/21
4370
到底什么是算力?
狭义的定义,是对数学问题进行运算的过程,例如完成“1+1=?”的过程,或者对“哥德巴赫猜想”进行推理的过程。
鲜枣课堂
2023/11/17
5930
到底什么是算力?
MIT研究人员警告:深度学习正在接近计算极限
深度学习要实现持续的进步,将需要“戏剧性的”提高更有计算效率的方法,要么通过改变现有技术,要么通过新的、尚未发现的方法。
代码医生工作室
2020/08/04
3570
MIT研究人员警告:深度学习正在接近计算极限
撑不起未来愿景,人工智能将再一次迎来“凛冬”?
自1950年阿兰·图灵在其开创性论文——《计算机器与智能》中首次提出“机器能思考吗?”这个问题以来,人工智能的发展并非一帆风顺,也尚未实现其“通用人工智能”的目标。
科技云报道
2022/12/08
3520
撑不起未来愿景,人工智能将再一次迎来“凛冬”?
读书笔记之《AI芯片:前沿技术与创新未来》
《AI芯片:前沿技术与创新未来》由张臣雄所著,该书全面介绍了AI芯片的发展历程、当前的热门技术和未来的展望。
AIGC部落
2025/02/03
1400
读书笔记之《AI芯片:前沿技术与创新未来》
推荐阅读
深度学习已至“瓶颈”?英特尔:数据处理是一剂良药
3900
IBM 发布首个深度学习类脑超级计算平台 IBM TrueNorth
1.9K0
MIT警告深度学习正在逼近计算极限,网友:放缓不失为一件好事
4620
错误率减半需要超过500倍算力!深度学习的未来,光靠烧钱能行吗?
4020
戴琼海:深度学习遭遇瓶颈,全脑观测启发下一代AI算法
1.1K0
MIT警示“深度学习过度依赖算力”,研究三年算法不如用10倍GPU
1.9K0
【详解】如何让智能深度学习,突破数据瓶颈?
1K0
2014突破性科学技术研究:神经形态芯片
5770
AI 劳动节创意盘点:绘画、写作、识别情绪……匹敌人类创造力
1.2K0
全球首台!仿人脑超算「深南」即将面世,突破摩尔定律,能耗降低几个数量级
2110
波音公司探索飞行AI,模拟人类大脑制造芯片!
5510
贯穿计算机历史长河的幽灵竟是一张“彩票”,深度学习也曾被诅咒
6450
突破摩尔定律极限!前谷歌量子计算团队首创「热力学计算机」,英伟达GPU「退役」?
1490
世界首颗3D芯片诞生!集成600亿晶体管,突破7nm制程极限
4700
Yann LeCun“隔纸对话”黄铁军:图灵机上的深度学习能模拟世界吗?
5350
MIT发出「算力」警告:深度学习正在逼近计算极限
4370
到底什么是算力?
5930
MIT研究人员警告:深度学习正在接近计算极限
3570
撑不起未来愿景,人工智能将再一次迎来“凛冬”?
3520
读书笔记之《AI芯片:前沿技术与创新未来》
1400
相关推荐
深度学习已至“瓶颈”?英特尔:数据处理是一剂良药
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档