首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >英特尔CEO:Intel 18A略优于台积电N2,美国AI将持续领先

英特尔CEO:Intel 18A略优于台积电N2,美国AI将持续领先

作者头像
芯智讯
发布于 2023-12-28 05:01:15
发布于 2023-12-28 05:01:15
1630
举报
文章被收录于专栏:芯智讯芯智讯

12月21日消息,据外媒Barron’s 报道,英特尔CEO帕特·基辛格(Pat Gelsinger)近日在接受采访时表示,Intel 18A制程性能表现将领先于台积电N2(2nm)制程。

基辛格指出,虽然Intel 18A制程与台积电N2制程的晶体管(transistor)密度似乎差不多,但每个人都说英特尔的背面供电(backside power delivery)技术更加优秀。他说,这让硅芯片拥有更好的面积效率(area efficiency),意味着成本降低,供电较好则代表表现性能更高。

Gelsinger表示,不错的晶体管密度、极佳的供电让Intel 18A制程略领先台积电N2。此外,台积电的封包成本非常高,英特尔毛利则可望缓步增加。

当被问及未来10年中美AI竞赛将如何演变?基辛格回答称,人们一提到AI,就想到运算力、数据供给及创新研究算法。美国的运算力显然已经取得领先。大家以为中国在数据方面有优势,但实际上,美国的开放让许多数据集(data set)唾手可得。第三就是美国人已将创新融入生活,拥有开放、喜爱挑战的性格,中国难以跟上。

基辛格认为,中国的政策趋于保守,越来越无法催生极具创新力的企业家、数据也越发难以取得。至于要如何衡量AI创新程度?从AI顶尖论文所参考的文献可以发现,美国已占据主导地位。

编辑:芯智讯-浪客剑

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-12-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 芯智讯 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
超越DeepSeek V3!Ai2再祭开源杀器Tülu 3,强化学习打破性能瓶颈
2024年11月,艾伦人工智能研究所(Ai2)推出了Tülu 3 8B和70B,在性能上超越了同等参数的Llama 3.1 Instruct版本,并在长达82页的论文中公布其训练细节,训练数据、代码、测试基准一应俱全。
新智元
2025/02/05
1470
超越DeepSeek V3!Ai2再祭开源杀器Tülu 3,强化学习打破性能瓶颈
DeepSeek-V3 新论文来了!通过硬件感知协同设计揭开低成本大型模型训练的秘密
DeepSeek-V3 背后的团队最近发布了一篇 14 页的技术论文,DeepSeek 首席执行官梁文峰是合著者,阐明了“AI 架构硬件的扩展挑战和反思”。他们最初技术报告的后续行动深入探讨了大型语言模型 (LLM) 开发、训练和底层硬件基础设施之间的复杂关系。本文超越了 DeepSeek-V3 的架构细节,探讨了硬件感知模型协同设计如何有效解决当前硬件的局限性,最终实现经济高效的大规模训练和推理。
AI在线工具
2025/06/20
1690
DeepSeek-V3 新论文来了!通过硬件感知协同设计揭开低成本大型模型训练的秘密
DeepSeek-R1论文细节时间线梳理
2025年1月10日,DeepSeek发布名为R1的大语言模型,该初创公司声称其在推理任务上可与OpenAI的ChatGPT o1媲美。该应用在创纪录的时间内登顶App Store排行榜,不仅吸引科技行业关注,也引发了全球范围内的广泛讨论。其中一个尤引人注目的声明是:该模型训练成本低于600万美元(而OpenAI在GPT-4花费高达1亿美元)。这一消息在股市和新闻媒体中引发轩然大波。
JavaEdge
2025/06/01
1410
GenAI 前沿 | Llama 3.1正式发布:4050亿参数模型,迄今为止最强的开源大模型之一
到目前为止,开源大型语言模型在功能和性能方面大多落后于封闭式模型。现在,我们正迎来一个由开源引领的新时代。Meta 官方公开发布了 Llama 3.1 405B,Meta 官方认为这是世界上最大、功能最强大的公开基础模型。
Botnow
2024/08/27
4410
GenAI 前沿 | Llama 3.1正式发布:4050亿参数模型,迄今为止最强的开源大模型之一
又一位英伟达"杀手"亮相:性能是H100数倍,成本仅1/10,支持万亿参数模型!
8月27日消息,在近日召开的Hot Chips 2024大会上,美国AI芯片初创公司SambaNova首次详细介绍了其新推出的全球首款面向万亿参数规模的人工智能(AI)模型的AI芯片系统——基于可重构数据流单元 (RDU) 的 AI 芯片 SN40L。
芯智讯
2024/08/29
2690
又一位英伟达"杀手"亮相:性能是H100数倍,成本仅1/10,支持万亿参数模型!
新晋开源顶流模型 Llama 3.1 被开发者赞爆!小扎拿苹果“开刀”反对闭源厂商:AI 不要“苹果税”!
“如今,几家科技公司正在开发领先的闭源模型,但开源正在迅速缩小差距。”Meta 首席执行官马克·扎克伯格说道,“今年,Llama 3 与最先进的模型相媲美,并在某些领域处于领先地位。”
深度学习与Python
2024/07/25
1960
新晋开源顶流模型 Llama 3.1 被开发者赞爆!小扎拿苹果“开刀”反对闭源厂商:AI 不要“苹果税”!
团队做到了! AMD MI300x 轻松调优 Llama 405B,而且性能还提升 15%
大家好,今天咱们来聊聊一个看起来可能有点“硬核”的话题,但放心,我会尽量用通俗的语言跟你聊一聊,你必须要一步一步做,因为整个过程都放在了 GitHub 上开源了。你是不是听过Llama 405B这个名字?如果你对AI模型或者自然语言处理有点兴趣的话,估计已经听过不少次了。但你可能没想到的是,居然能用 AMD 的 GPU 来对这个庞大的模型进行调优!更神奇的是,成功调优后性能表现还相当不错。我们今天就来看看这个过程中有哪些关键点、困难,还有一些有趣的发现。
老码小张
2024/09/24
2740
团队做到了! AMD MI300x 轻松调优 Llama 405B,而且性能还提升 15%
4万亿晶体管5nm制程,全球最快AI芯片碾压H100!单机可训24万亿参数LLM,Llama 70B一天搞定
就在刚刚,AI芯片初创公司Cerebras重磅发布了「第三代晶圆级引擎」(WSE-3)。
新智元
2024/03/25
1860
4万亿晶体管5nm制程,全球最快AI芯片碾压H100!单机可训24万亿参数LLM,Llama 70B一天搞定
全球开发者组团训练,首个异步强化学习32B推理模型震撼来袭!数据已开源
最近,全球第一个用去中心化强化学习训练的32B模型——INTELLECT-2正式发布!
新智元
2025/04/27
1450
全球开发者组团训练,首个异步强化学习32B推理模型震撼来袭!数据已开源
405B大模型也能线性化!斯坦福MIT最新研究,0.2%训练量让线性注意力提分20+
一套方法,即可线性化现有各种量级的Transformer模型,上至Llama 3.1 405B,也只需要十来张显卡在两天内搞定!
新智元
2025/02/14
770
405B大模型也能线性化!斯坦福MIT最新研究,0.2%训练量让线性注意力提分20+
全球GPU缺口超40万张!算力之困,中国大模型有解了
然而,这个领域的中美差异性,决定了这一事实:美国现在的格局,未必就是中国未来的格局。
新智元
2023/09/09
7610
全球GPU缺口超40万张!算力之困,中国大模型有解了
分水岭时刻!Llama3.1发布,405B超越闭源GPT-4o
在150多个基准测试集中,405B版本的表现追平甚至超越了现有SOTA模型GPT-4o和Claude 3.5 Sonnet。
NewBeeNLP
2024/07/31
3771
分水岭时刻!Llama3.1发布,405B超越闭源GPT-4o
英伟达年终大礼,最强AI GPU曝光!全新B300让o1/o3推理性能上天算力爆表
尽管Blackwell GPU多次因硅片、封装和底板问题而推迟发布,但这并不能阻挡他们前进的脚步。
新智元
2025/02/15
1350
英伟达年终大礼,最强AI GPU曝光!全新B300让o1/o3推理性能上天算力爆表
主机和边缘设备实现分布式LLM推理
在自己家庭中通过主机和边缘设备实现分布式LLM推理具有一定的可行性和挑战性。其优势在于能保护隐私、降低成本、可定制化等,但也存在硬件性能有限、网络带宽不足、配置复杂等问题.以下是一些相关的公司和项目:
zhangjiqun
2024/12/25
3480
Blackwell Ultra GPU未来展望:万亿参数模型训练
随着生成式AI和大语言模型(LLM)的爆发式发展,模型规模已从千亿级迈向万亿级参数时代。这一趋势对算力基础设施提出了前所未有的挑战:如何高效支持超大规模模型的训练与推理?英伟达最新发布的Blackwell架构GPU与微软Azure AI平台的深度融合,为此提供了革命性的解决方案。本文将从Blackwell Ultra GPU的技术革新、Azure AI的生态系统适配、万亿参数模型训练的具体实践,以及未来技术演进的路径展开分析。
Michel_Rolle
2025/01/13
2.4K0
Meta深夜开源Llama 4!首次采用MoE,惊人千万token上下文,竞技场超越DeepSeek
万万没想到。Meta 选择在周六日,发布了最新 AI 模型系列 ——Llama 4,这是其 Llama 家族的最新成员。
机器之心
2025/04/07
1680
Meta深夜开源Llama 4!首次采用MoE,惊人千万token上下文,竞技场超越DeepSeek
预计容纳 35 万颗 H100!训练 Llama 大模型的基础设施是如何搭建的
作者 | Kevin Lee、Adi Gangidi、Mathew Oldham
深度学习与Python
2024/03/26
2040
预计容纳 35 万颗 H100!训练 Llama 大模型的基础设施是如何搭建的
颠覆时代!DeepSeek登场后,英伟达股价一夜蒸发17%!算力封锁还有意义吗?
从前大家都认为,要训练一个大模型往往需要大规模的算力集群才能够搞出一个ChatGPT出来。
算法一只狗
2025/01/28
1800
颠覆时代!DeepSeek登场后,英伟达股价一夜蒸发17%!算力封锁还有意义吗?
Llama 3超大杯有何惊喜?Meta会一直开源吗?当初为何笃信元宇宙?扎克伯格新访谈回应一切
Llama 3 总共有三个版本 ——8B、70B 和 405B。其中,8B 和 70B 版本已经开源,405B 版本仍在训练中。根据现有的评测数据,405B 版本的性能已经逼近 GPT-4(参见《开源大模型 Llama 3 王者归来!最大底牌 4000 亿参数,性能直逼 GPT-4》)。这可能促使 OpenAI 尽早发布下一代模型,从而保持其最强 AI 模型的地位。
机器之心
2024/04/26
2030
Llama 3超大杯有何惊喜?Meta会一直开源吗?当初为何笃信元宇宙?扎克伯格新访谈回应一切
万字独家爆光,首揭o1 pro架构!惊人反转,Claude 3.5 Opus没失败?
谷歌祭出最强下一代新模型Gemini 2.0 Flash,并带着多个智能体一同亮相;OpenAI「满血版」o1和o1 pro mode向所有人证明了模型的能力还远没有触及到天花板。
新智元
2025/02/15
1540
万字独家爆光,首揭o1 pro架构!惊人反转,Claude 3.5 Opus没失败?
推荐阅读
超越DeepSeek V3!Ai2再祭开源杀器Tülu 3,强化学习打破性能瓶颈
1470
DeepSeek-V3 新论文来了!通过硬件感知协同设计揭开低成本大型模型训练的秘密
1690
DeepSeek-R1论文细节时间线梳理
1410
GenAI 前沿 | Llama 3.1正式发布:4050亿参数模型,迄今为止最强的开源大模型之一
4410
又一位英伟达"杀手"亮相:性能是H100数倍,成本仅1/10,支持万亿参数模型!
2690
新晋开源顶流模型 Llama 3.1 被开发者赞爆!小扎拿苹果“开刀”反对闭源厂商:AI 不要“苹果税”!
1960
团队做到了! AMD MI300x 轻松调优 Llama 405B,而且性能还提升 15%
2740
4万亿晶体管5nm制程,全球最快AI芯片碾压H100!单机可训24万亿参数LLM,Llama 70B一天搞定
1860
全球开发者组团训练,首个异步强化学习32B推理模型震撼来袭!数据已开源
1450
405B大模型也能线性化!斯坦福MIT最新研究,0.2%训练量让线性注意力提分20+
770
全球GPU缺口超40万张!算力之困,中国大模型有解了
7610
分水岭时刻!Llama3.1发布,405B超越闭源GPT-4o
3771
英伟达年终大礼,最强AI GPU曝光!全新B300让o1/o3推理性能上天算力爆表
1350
主机和边缘设备实现分布式LLM推理
3480
Blackwell Ultra GPU未来展望:万亿参数模型训练
2.4K0
Meta深夜开源Llama 4!首次采用MoE,惊人千万token上下文,竞技场超越DeepSeek
1680
预计容纳 35 万颗 H100!训练 Llama 大模型的基础设施是如何搭建的
2040
颠覆时代!DeepSeek登场后,英伟达股价一夜蒸发17%!算力封锁还有意义吗?
1800
Llama 3超大杯有何惊喜?Meta会一直开源吗?当初为何笃信元宇宙?扎克伯格新访谈回应一切
2030
万字独家爆光,首揭o1 pro架构!惊人反转,Claude 3.5 Opus没失败?
1540
相关推荐
超越DeepSeek V3!Ai2再祭开源杀器Tülu 3,强化学习打破性能瓶颈
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档