Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >AI造芯Nature论文遭围攻,谷歌发文硬刚学术抹黑!Jeff Dean怒怼:你们连模型都没训

AI造芯Nature论文遭围攻,谷歌发文硬刚学术抹黑!Jeff Dean怒怼:你们连模型都没训

作者头像
新智元
发布于 2025-02-15 02:06:40
发布于 2025-02-15 02:06:40
1160
举报
文章被收录于专栏:新智元新智元

新智元报道

编辑:alan

【新智元导读】近日,面对EDA界对于自家AlphaChip的质疑,谷歌首席科学家Jeff Dean以论文回应论文,并表示:大家注意,这是同行竞争!

登上了Nature的「超人」芯片设计系统AlphaChip,却多次遭到质疑。

而且不是简单说说而已,做实验、写论文,还有一篇作为invited paper发在ISPD 2023。

AlphaFold都拿诺奖了,AlphaChip还搁这辟谣呢?

怎么办?谷歌首席科学家Jeff Dean表示:我也写篇论文!

EDA社区一直对我们的AlphaChip方法是否像Nature论文中声称的那样有效持怀疑态度。annadgoldie、Azaliamirh和我写了个论文,来回应这些问题:

论文地址:https://arxiv.org/pdf/2411.10053

Jeff Dean认为,这种毫无根据的怀疑,在很大程度上是由下面这篇文章(「一篇存在严重缺陷的未经同行评审的论文」)导致的:

论文地址:https://arxiv.org/pdf/2302.11014

该论文声称复制了我们的方法,但未能在主要方面遵循: 作者没有进行预训练(尽管在我们的Nature文章中提到了37次预训练 ),剥夺了基于学习的方法从其他芯片设计中学习的能力; 减少了20倍的计算量,并且没有进行收敛训练。 这就像评估一个以前从未见过围棋的AlphaGo,然后得出结论,AlphaGo不太擅长围棋。

Jeff Dean等人还回应了Igor Markov(Synopsys的杰出架构师)在 CACM 2024年11月刊上发表的分析文章。

论文地址:https://cacm.acm.org/research/reevaluating-googles-reinforcement-learning-for-ic-macro-placement/

Jeff Dean表示,Markov发论文时妹说自己是Synopsys的高级员工,——Synopsys是商业EDA软件,而AlphaChip是开源的。

Markov的论文分析中还引用了另一篇没发表的匿名PDF:

https://statmodeling.stat.columbia.edu/wp-content/uploads/2022/05/MLcontra.pdf

这实际上也是Markov写的。

Markov的文章提出了隐晦的指控,所有这些都是完全没有根据的,而且已经被Nature证明过了。 我很惊讶Synopsys想与此扯上关系,我很惊讶CACMmag认为有必要在没有证据的情况下发表这类指控, 除了两篇有缺陷的、未经同行评审的文章之外,没有任何技术数据。

谷歌的回击

话说在arxiv上吃瓜,小编还是第一次。

在Introduction部分,谷歌拉了个时间表:

2020年4月:发布Nature论文的arXiv预印本。 2020年8月:TPU v5e中流片了10个AlphaChip布局。 2021年6月:发表了Nature文章。 2021年9月:在TPU v5p中流片了15个AlphaChip布局。 2022年1月 - 2022年7月:开源了AlphaChip,Google的另一个团队独立复制了Nature论文中的结果。 2022年2月:谷歌内部独立委员会拒绝发表Markov等人的观点,因为数据不支持其主张和结论。 2022年10月:在Trillium(最新的公共TPU)中流片了25个AlphaChip布局。 2023年2月:Cheng等人在arXiv上发帖,声称对我们的方法进行了「大规模重新实现」。 2023年6月:Markov发布了他的「meta-analysis」。 2023年9月:Nature启动了第二次同行评审。 2024年3月:Google Axion处理器(基于ARM的CPU)采用了7个AlphaChip布局。 2024年4月:Nature完成了调查和出版后审查,发现完全对我们有利。 2024年9月:MediaTek高级副总裁宣布扩展AlphaChip以加速其最先进芯片的开发。 2024年11月:Markov重新发表了他的「meta-analysis」。

简单来说,我AlphaChip已经在自家服役这么长时间了,联发科也用了,Nature也调查过了,无懈可击。

而且作为不同的部门,TPU团队需要足够的信任才会使用AlphaChip(优于人类专家、高效且可靠),他们不能承担不必要的风险。

对于反方的Markov,论文评价道:「Markov的大部分批评都是这种形式:在他看来,我们的方法不应该奏效,因此它一定不起作用,任何表明相反的证据都是欺诈。」

说到欺诈这件事,正反方都谈到了内部举报人(whistle-

blower),在Markov的文章中是这样记载的:

论文的两位主要作者抱怨他们的研究中不断出现欺诈指控。2022 年,谷歌解雇了内部举报人,并拒绝批准出版谷歌研究人员撰写的一篇批评Mirhoseini等人的论文,举报人起诉谷歌不当解雇(根据加州举报人保护法)。

而本文表示:这位举报人向谷歌调查员承认,他怀疑这项研究是欺诈性的,但没有证据。

对错误论文的逐条回应

没有预先训练RL方法

与以前的方法不同,AlphaChip是一种基于学习的方法,这意味着它会随着解决更多的芯片放置问题而变得更好、更快。

这是通过预训练实现的,如下图2所示,训练数据集越大,放置新区块的方法就越好。

相反,Cheng等人根本没有进行预训练(没有训练数据),这意味着模型以前从未见过芯片,必须学习如何从头开始为每个测试用例执行布局。

作者在Nature论文中详细讨论了预训练的重要性,并实证证明了它的影响。例如下图3表明,预训练可以提高放置质量和收敛速度。

在开源的Ariane RISC-V CPU上,非预训练的RL需要48小时,才能接近预先训练模型在6小时内可以产生的值。

在Nature论文中,作者针对主数据表中的结果进行了48小时的预训练,而Cheng等人预训练了 0 小时。

「Cheng试图通过暗示我们的开源存储库不支持预训练,来为他们缺乏预训练找借口,但这是不正确的,预训练就是在多个样本上运行方法。」

使用的计算资源减少了一个数量级

在Cheng等人的论文中,RL方法提供的RL体验收集器减少了20倍(26个对比512个),GPU数量减少了一半(8个对比16个)。

使用较少的计算可能会损害性能,或者需要运行相当长的时间才能实现相同的性能。

如下图4所示,在大量GPU上进行训练可以加快收敛速度并产生更好的最终质量。

RL方法未训练到收敛

随着机器学习模型的训练,损失通常会减少,然后趋于平稳,这代表「收敛」——模型已经了解了它正在执行的任务。

众所周知,训练到收敛是机器学习的标准做法。

但如下图所示,Cheng等人没有为任何一个进行收敛训练,

下表总结了详细信息。除了没有提供图的BlackParrotNG45和Ariane-NG45,其他四个具有收敛图的块(Ariane-GF12、MemPool-NG45、BlackParrot-GF12 和 MemPool-GF12),训练在相对较低的步数(分别为 350k、250k、160k 和 250k 步)处截止。

如果遵循标准的机器学习实践,可能会提高这些测试用例的性能。

不具代表性、不可重现

在Nature论文中,作者报告的张量处理单元(TPU)块的结果来自低于7nm的技术节点,这是现代芯片的标准制程。

相比之下,Cheng等人采用了旧技术节点尺寸45nm和12nm)的结果,这从物理设计的角度来看有很大不同。

例如,在低于10nm时,通常使用multiple patterning,导致在较低密度下出现布线拥塞问题。因此,对于较旧的技术节点大小,AlphaChip可能会受益于调整其奖励函数的拥塞或密度分量。

AlphaChip的所有工作都是在7nm、5nm和更新的工艺上进行的,作者没有专注于将其应用于旧工艺制程的设计。

此外,Cheng等人也无法或不愿意分享在其主数据表中复制结果所需的综合网表。

参考资料:

https://x.com/JeffDean/status/1858540085794451906

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-11-27,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
登Nature两年,谷歌「AI 6小时设计芯片」遭打脸?大神Jeff Dean论文被官方调查,疑似隐藏源代码
近日,一篇由谷歌大神Jeff Dean领衔的「AI自主设计芯片」研究,被曝正式接受Nature调查!
新智元
2023/10/04
3260
登Nature两年,谷歌「AI 6小时设计芯片」遭打脸?大神Jeff Dean论文被官方调查,疑似隐藏源代码
6小时完成,Jeff Dean领衔AI设计芯片方案登Nature,谷歌第四代TPU已用
机器之心报道 编辑:杜伟、陈萍 将芯片的布局规划看作一个深度强化学习问题,谷歌大脑团队希望用 AI 来提升芯片设计效率。基于 AI 的最新设计方案可以在数小时内完成人类设计师耗费数月才能完成的芯片布局,这将有可能引领一场新的芯片效率革命。 2020 年 4 月,包括 Google AI 负责人 Jeff Dean 在内的谷歌大脑研究者描述了一种基于 AI 的芯片设计方法,该方法可以从过往经验中学习并随时间推移不断改进,从而能够更好地生成不可见(unseen)组件的架构。据他们表示,这种基于 AI 的方法平
机器之心
2023/03/29
4570
6小时完成,Jeff Dean领衔AI设计芯片方案登Nature,谷歌第四代TPU已用
TPU新秘密武器!谷歌Jeff Dean团队推「AI造芯」,自主设计芯片仅需6小时
---- 新智元报道   来源:nature等 编辑:yaxin, LQ 【新智元导读】Jeff Dean带队更新AI芯片设计,这次还带上了谷歌秘密武器TPU,利用深度强化学习设计下一代AI加速芯片,6个小时内搞定芯片设计。 有了AI设计芯片,我再也不相信「摩尔定律」了! 近日,由Jeff Dean领衔的谷歌大脑团队以及斯坦福大学的科学家们,在一项研究中证明: 「一种基于深度强化学习(DL)的芯片布局规划方法,能够生成可行的芯片设计方案。」 AI能设计芯片,这还不够震撼。 只用不到 6 小时的时间
新智元
2023/05/22
4820
TPU新秘密武器!谷歌Jeff Dean团队推「AI造芯」,自主设计芯片仅需6小时
谷歌大脑也宫斗!资深研究员抹黑AI设计芯片项目组,传你Nature论文造假
---- 新智元报道   编辑:David 袁榭 【新智元导读】办公室内斗这事儿,连谷歌大脑也不能幸免。最近,一位资深研究员被谷歌解雇,原因要从一篇nature论文说起。 说起办公室内斗,相信各位小伙伴都不陌生。 什么大公司高管各领一伙人搞站队,小公司的班组长互使绊子,就连底层打工人也要争着抢着找个大腿抱一抱。 这都是很正常的事,就连Jeff Dean挂帅的Google Brain,高端大气上档次,在谷歌内部地位也是一等一的,照样少不了这档子事。 当然了,谷歌的研究人员,姿势可能会优雅一点,但争的东西
新智元
2022/06/07
4780
谷歌大脑也宫斗!资深研究员抹黑AI设计芯片项目组,传你Nature论文造假
谷歌Jeff Dean又用AI设计芯片!6小时出活儿,强力碾压集成电路设计专家
AI长大了,可以自己设计芯片了。而且这技术水平越来越高,自动化布置芯片的晶体管小菜一碟。
新智元
2020/04/24
1K0
Jeff Dean团队论文竟遭内部质疑,谷歌解雇43岁AI研究员
---- 新智元报道   编辑:桃子 拉燕 【新智元导读】谷歌解雇风波真是一波未平,一波又起。此前,谷歌大脑的AI研究员Satrajit Chatterjee对Jeff Dean带队发表在Nature的一篇论文提出了质疑。结果是,这名研究员早在今年3月份被开除。 不到2年,谷歌再次解雇了一位AI研究员。 原因很简单,「质疑」成大错! 这位研究人员Satrajit Chatterjee带领的一个科学家团队对谷歌发表在Nature的一篇著名论文提出了质疑。 据纽约时报称,43岁Satrajit Chat
新智元
2022/05/05
3860
Jeff Dean团队论文竟遭内部质疑,谷歌解雇43岁AI研究员
自家员工质疑Jeff Dean领衔的Nature论文被解雇,谷歌:我们彻查了,质疑不符合标准
机器之心报道 编辑:杜伟、陈萍 对于被质疑,谷歌表示,「这篇论文经过了Nature严格的同行评审。」 最近一两年,谷歌接连解雇了批评其人工智能系统内置偏见的两位研究者——Timnit Gebru 和 Margaret Mitchell,引发了研究社区的热议。 最近,谷歌再次解雇了 Google AI 团队的一名研究人员 Satrajit Chatterjee,原因是他带领的团队对谷歌 2021 年 6 月发表在 Nature 上的一篇关于制造计算机芯片的专用 AI 能力的论文进行了质疑。 那篇论文由谷歌 A
机器之心
2022/05/05
5700
自家员工质疑Jeff Dean领衔的Nature论文被解雇,谷歌:我们彻查了,质疑不符合标准
Jeff Dean发推:谷歌超硬年终总结「第三弹」来了!大力发展Jax
---- 新智元报道   编辑:Aeneas 好困 【新智元导读】谷歌费心打造的年终总结第三弹,火热出炉了! 刚刚,Jeff Dean发推表示,谷歌重磅打造的超级硬核年终大总结,出第三弹了! 第一弹:「超详超硬Jeff Dean万字总结火热出炉!图解谷歌2022年AIGC、LLM、CV三大领域成就」 第二弹:「谷歌2022年度回顾:让AI更负责任,主要做了4点微小的工作」 伟大的机器学习研究需要伟大的系统。 随着算法和硬件越来越复杂,以及运行规模越来越大,执行日常任务所需的软件的复杂性也在不断增加。
新智元
2023/02/24
6550
Jeff Dean发推:谷歌超硬年终总结「第三弹」来了!大力发展Jax
Jeff Dean演讲回顾LLM发展史,Transformer、蒸馏、MoE、思维链等技术都来自谷歌
4 月 14 日,谷歌首席科学家 Jeff Dean 在苏黎世联邦理工学院举办的信息学研讨会上发表了一场演讲,主题为「AI 的重要趋势:我们是如何走到今天的,我们现在能做什么,以及我们如何塑造 AI 的未来?」
机器之心
2025/04/19
2540
Jeff Dean演讲回顾LLM发展史,Transformer、蒸馏、MoE、思维链等技术都来自谷歌
谷歌AI的芯片设计能力超过人类?一位内部研究员发出质疑,结果“因言获罪”遭解雇
杨净 明敏 发自 凹非寺 量子位 | 公众号 QbitAI 在质疑自家发表在Nature上的论文成果后,这位谷歌研究员被解雇了。 去年6月,谷歌在Nature上发表了一篇文章:A graph placement methodology for fast chip design,其中Jeff Dean是作者之一。 文章中表示,AI能在6个小时内生成芯片设计图,而且比人类设计得更好。 但这位研究员认为文章的一些论断站不住脚,以及实验尚未经过充分的测试。 不过他只是在内部表达了下想法,结果验证自己观点的论文,
量子位
2022/05/05
3460
谷歌AI的芯片设计能力超过人类?一位内部研究员发出质疑,结果“因言获罪”遭解雇
Layout工程师危矣?谷歌AlphaChip公布:联发科天玑芯片已采用!
虽然近年来各大EDA公司都在积极的将AI引入到自己的芯片设计工具当中。但是早在2020年,谷歌就发布了题为《Chip Placement with Deep Reinforcement Learning》预印本论文,介绍了其设计芯片布局的新型强化学习方法。随后在2021年,谷歌又在 Nature上发表了论文并将其开源了。
芯智讯
2024/09/30
2100
Layout工程师危矣?谷歌AlphaChip公布:联发科天玑芯片已采用!
谷歌大脑2017技术研究总结 | Jeff Dean执笔(附论文、 数据集)
本文经AI新媒体量子位(公众号ID:qbitai)授权转载,转载请联系出处 本文长度为8311字,建议阅读10分钟 Jeff Dean回顾了谷歌大脑团队过去一年的核心研究,以及在多个AI领域的研究进展。 谷歌AI Senior Fellow、谷歌大脑负责人Jeff Dean,按照惯例,今天开始发布2017年度的谷歌大脑年度总结。 在这份已经发布的总结中,Jeff Dean回顾了谷歌大脑团队过去一年的核心研究,以及在多个AI领域的研究进展。 Jeff Dean还把相关研究的论文等一并附上,堪称良心之作,
数据派THU
2018/01/29
1.5K0
谷歌大脑2017技术研究总结 | Jeff Dean执笔(附论文、 数据集)
网友:看完Jeff Dean新论文,我再也不相信大厂的鬼话了
机器之心报道 机器之心编辑部 用数万美元 TPU 算力,实现在 CIFAR-10 上 0.03% 的改进,创造了新的 SOTA,但这一切值得吗? 「我相信他们得到的数字是准确的,他们确实做了工作并得到了结果…… 但这样真的好吗?」 一名机器学习研究者的灵魂发问,今天成为了整个社区最热门的话题。 事情要从这周四说起,谷歌研究员 Andrea Gesmundo 和谷歌 AI 负责人、大牛 Jeff Dean 的论文《An Evolutionary Approach to Dynamic Introductio
机器之心
2022/05/30
3130
网友:看完Jeff Dean新论文,我再也不相信大厂的鬼话了
研究遭质疑,Jeff Dean回应:我们本就不是为得到新SOTA,成本计算也搞错了
机器之心报道 编辑:杜伟、陈萍 对于 Jeff Dean 的回复,你认同吗? 昨日,整个社区最热门的话题无外乎是 reddit 上一名机器学习研究者对谷歌 AI 负责人 Jeff Dean 参与论文的质疑。这篇论文是《An Evolutionary Approach to Dynamic Introduction of Tasks in Large-scale Multitask Learning Systems》,于周四被提交到预印版论文平台 arXiv 上。 在论文中,Jeff Dean 等人提出了一
机器之心
2022/05/30
3980
研究遭质疑,Jeff Dean回应:我们本就不是为得到新SOTA,成本计算也搞错了
Jeff Dean大规模多任务学习SOTA遭吐槽,复现一遍要6万美元!
---- 新智元报道   编辑:David 好困 袁榭 【新智元导读】谷歌大神Jeff Dean最近亲自操刀发新作,提出了一个大规模多任务学习框架µ2Net,基本把各大数据集多任务学习的SOTA刷了个遍,但这次为何网友有点不买账了?很简单,差钱。 2021年10月,Jeff Dean亲自撰文介绍了一个全新的机器学习架构——Pathways。 目的很简单,就是让一个AI能够跨越数以万计的的任务,理解不同类型的数据,并同时以极高的效率实现: 在大半年之后的2022年3月,Jeff Dean终于发布了Pa
新智元
2022/05/30
5320
Jeff Dean大规模多任务学习SOTA遭吐槽,复现一遍要6万美元!
谷歌大脑全军出击!Jeff Dean领衔全面解答AI现状与未来
李林 允中 编译整理 量子位 出品 | 公众号 QbitAI 刚送走一年一度为苹果纳肾发布会,又迎来了一年一度Google Brain AMA。 这是Jeff Dean第二次带着Google Brai
量子位
2018/03/27
9260
谷歌大脑全军出击!Jeff Dean领衔全面解答AI现状与未来
一文看尽谷歌AI全年重大研究突破,Jeff Dean执笔,全程干货
从重要AI技术应用突破讲起,到展望2019结束。Jeff Dean总结了14个大方面的AI成果,并透露全年AI论文发表数达608篇。
量子位
2019/04/24
9490
一文看尽谷歌AI全年重大研究突破,Jeff Dean执笔,全程干货
Jeff Dean两年AMA全盘点:26个关于谷歌大脑和机器学习未来的问题
AI科技评论按:前两天,谷歌大脑团队又在Reddit上做了一次AMA(Ask me anything)活动。 去年8月时候谷歌大脑团队也在Reddit上做过同样的活动,包括Jeff Dean、Geoffery Hinton、Samy Bengio、David Patterson在内的23位谷歌大脑成员在 Machine Learning 版块的帖子里回答了广大网友们的关于谷歌大脑的工作模式、与DeepMind的关系、谷歌大脑的研究宗旨、对深度学习未来看法等等方面的提问。提问的问题、成员们的回答以及网友们
AI科技评论
2018/03/14
9600
Jeff Dean两年AMA全盘点:26个关于谷歌大脑和机器学习未来的问题
Jeff Dean「Hot Chips 2017」演讲:AI对计算机系统设计的影响
机器之心报道 参与:机器之心编辑部 在刚刚结束的 2017 年国际高性能微处理器研讨会(Hot Chips 2017)上,微软、百度、英特尔等公司都发布了一系列硬件方面的新信息,比如微软的 Project Brainwave、百度的 XPU、英特尔的 14nm FPGA 解决方案等。谷歌也不例外,在大会 keynote 中 Jeff Dean 介绍了人工智能近期的发展及其对计算机系统设计的影响,同时他也对 TPU、TensorFlow 进行了详细介绍。文末提供了该演讲资料的下载地址。 在演讲中,Jeff D
机器之心
2018/05/08
8870
Jeff Dean「Hot Chips 2017」演讲:AI对计算机系统设计的影响
与Jeff Dean聊ML for EDA,最佳论文花落伯克利:EDA顶级会议DAC 2021 精彩回顾
12月9日,第58届EDA首要会议DAC(Design Automation Conference)的线下部分在旧金山落下帷幕,此次会议为期五天。
AI科技评论
2021/12/22
8310
与Jeff Dean聊ML for EDA,最佳论文花落伯克利:EDA顶级会议DAC 2021 精彩回顾
推荐阅读
登Nature两年,谷歌「AI 6小时设计芯片」遭打脸?大神Jeff Dean论文被官方调查,疑似隐藏源代码
3260
6小时完成,Jeff Dean领衔AI设计芯片方案登Nature,谷歌第四代TPU已用
4570
TPU新秘密武器!谷歌Jeff Dean团队推「AI造芯」,自主设计芯片仅需6小时
4820
谷歌大脑也宫斗!资深研究员抹黑AI设计芯片项目组,传你Nature论文造假
4780
谷歌Jeff Dean又用AI设计芯片!6小时出活儿,强力碾压集成电路设计专家
1K0
Jeff Dean团队论文竟遭内部质疑,谷歌解雇43岁AI研究员
3860
自家员工质疑Jeff Dean领衔的Nature论文被解雇,谷歌:我们彻查了,质疑不符合标准
5700
Jeff Dean发推:谷歌超硬年终总结「第三弹」来了!大力发展Jax
6550
Jeff Dean演讲回顾LLM发展史,Transformer、蒸馏、MoE、思维链等技术都来自谷歌
2540
谷歌AI的芯片设计能力超过人类?一位内部研究员发出质疑,结果“因言获罪”遭解雇
3460
Layout工程师危矣?谷歌AlphaChip公布:联发科天玑芯片已采用!
2100
谷歌大脑2017技术研究总结 | Jeff Dean执笔(附论文、 数据集)
1.5K0
网友:看完Jeff Dean新论文,我再也不相信大厂的鬼话了
3130
研究遭质疑,Jeff Dean回应:我们本就不是为得到新SOTA,成本计算也搞错了
3980
Jeff Dean大规模多任务学习SOTA遭吐槽,复现一遍要6万美元!
5320
谷歌大脑全军出击!Jeff Dean领衔全面解答AI现状与未来
9260
一文看尽谷歌AI全年重大研究突破,Jeff Dean执笔,全程干货
9490
Jeff Dean两年AMA全盘点:26个关于谷歌大脑和机器学习未来的问题
9600
Jeff Dean「Hot Chips 2017」演讲:AI对计算机系统设计的影响
8870
与Jeff Dean聊ML for EDA,最佳论文花落伯克利:EDA顶级会议DAC 2021 精彩回顾
8310
相关推荐
登Nature两年,谷歌「AI 6小时设计芯片」遭打脸?大神Jeff Dean论文被官方调查,疑似隐藏源代码
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档