
在全球人工智能的版图上,两条截然不同的发展路径正变得日益清晰。以美国为代表的路径,其特征是巨额的资本支出(Capex)和对极致模型性能的追求,目标直指通用人工智能(AGI)。这种模式由一种害怕错过(FOMO)的市场情绪驱动,不计成本地推动规模法则(Scaling Law)的边界。
而另一条路径,以中国为代表,呈现出截然不同的图景。中国的AI参与者在2023至2025年间的合计资本支出预计为1240亿美元,这一数字仅为美国同行的18%(美国同期为6940亿美元)。然而,这种巨大的资本投入差异并未带来同等比例的性能差距。数据显示,中国最顶尖的大模型(MiniMax M2)的性能仅落后于美国最强的模型(GPT-5 Codex high)约10%。
这种资本支出-性能的显著反差,揭示了中国AI发展的核心驱动力——并非缺乏资本,而是一种主动或被动选择的战略转向:即在面临先进AI芯片进口受限的现实下,中国正全力转向提升模型效率,而非单纯追求模型规模。
本文基于杰富瑞(Jefferies Financial Group Inc)最新报告《China’s AI in a Global Context》(本文的PDF版本及该报告已收录至“走向未来”知识星球【https://t.zsxq.com/xpWzq】,可加入星球获取),深入探讨该报告所揭示的核心观点:中国的人工智能发展正从依赖外部硬件转向挖掘内部效率,这一策略不仅重塑了其资本支出结构和技术路线图,并且根据最新的芯片供应和需求模型预测,可能在2030年前成功化解芯片短缺的风险。中国的路径不再是美国的追随者,而是在特定约束条件下,探索一种更具经济效益和应用潜力的歧异发展模式。
报告的数据揭示了一个核心的反差现象:中美在AI领域的投入产出比存在巨大差异。美国科技巨头(如AWS、微软、谷歌、Meta)在2023至2025年的AI相关资本支出总额高达6940亿美元,显示出一种近乎激进的投资态势。相比之下,中国的主要科技公司(包括阿里巴巴、百度、腾讯、字节跳动等)同期的合计支出为1240亿美元,仅为美国的82%之低。

从传统认知出发,如此悬殊的投入差距理应导致中国在AI模型性能上被远远甩开。然而,事实并非如此。根据Artificial Analysis的智能评分,中国前沿模型(如MiniMax M2)的智能水平达到了美国顶尖模型(GPT-5 Codex high)的90%。这意味着美国以超过五倍的资本投入,目前仅换来了10%的性能领先。

这种反差在开源模型领域更为突出。报告指出,中国在开源大模型方面的表现已经达到世界领先水平。例如,MiniMax M2在开源基准测试中的表现(106%)甚至超过了美国的gpt-oss-120B(100%)。这表明,中国在AI领域的追赶速度极快,尤其是在技术扩散和迭代更快的开源社区。
这种低资本支出与高性能并存的现象,并不能简单归结为中国无法获得昂贵的先进AI芯片。报告分析认为,这在很大程度上源于中国AI参与者更少的FOMO情绪和更激烈的市场竞争,促使他们必须在有限的资源下寻求更高的效率。这并非简单的不能为,而是包含了主动的不愿为和战略性的转向为——即转向追求模型效率,而非盲目参与军备竞赛。

此外,报告还指出了一个不应被忽视的因素:许多中国AI公司有能力在中国境外进行模型预训练,从而在一定程度上绕过了芯片限制,使它们能够保持与全球前沿模型的性能差距不被拉大。因此,中国相对较低的资本支出,是其独特的市场环境、战略选择和高效执行共同作用的结果。
与中国的审慎不同,美国AI领域的战略焦点高度集中在推动模型性能的极限,以期尽快实现AGI。这一战略体现在OpenAI、谷歌、Anthropic和xAI等顶尖实验室的行动上,它们持续增加资本支出,推动更大参数规模的模型训练。

这种策略背后的逻辑是坚信规模法则(Scaling Law)——即模型性能会随着参数、数据和计算资源的增加而持续提升。然而,规模法则的边际回报正在显著放缓。
无论是OpenAI、阿里巴巴还是DeepSeek,其主要模型的迭代升级所带来的智能评分提升幅度正呈现明显的下降趋势。例如,OpenAI从GPT-3.5 Turbo升级到GPT-4带来了超过160%的性能巨幅跃升,但后续从GPT-4到GPT-5的系列升级,其性能提升的幅度已大幅收窄。
这一回报递减的经验性观察,对美国不计成本的AGI豪赌构成了重大挑战。当模型性能的提升速度赶不上资本支出的增长速度时,潜在的投资回报率(ROI)将迅速下降。美国AI公司和智算服务商持续加注,更像是一种由FOMO情绪主导的竞争行为,而非基于清晰的经济回报测算。它们似乎在赌,下一次规模的跃升能够突破当前的瓶颈,带来非线性的能力涌现。
然而,这种高举高打的策略风险极高。它不仅消耗巨量的能源和资本,而且如果规模法则的红利真的趋于平缓,美国AI产业可能会发现自己陷入了一个高成本、低回报的困境,即创造出了性能强大的模型,但其高昂的训练和推理成本却阻碍了其大规模的商业化应用。
面对外部硬件的硬性约束和美国规模竞赛的潜在风险,中国AI产业选择了一条截然不同的道路:将效率置于核心战略地位。这种效率的追求并非单一的技术点,而是贯穿模型架构、开源策略到商业定价的系统性工程。
首先,在模型架构上,中国AI公司积极探索和应用创新架构以提升计算效率,例如混合专家模型(MoE)。报告中的对比清晰地表明,采用MoE架构的模型(如DeepSeek V2 Chat)能够用更少的活跃参数(21B)达到甚至超过使用更多参数的传统密集型模型(如DeepSeek LLM 67B)的性能。这种架构创新使得在同等计算资源下,模型能够实现更高的性能输出。

这种对模型效率的极致追求,不仅体现在架构层面,更体现在中国AI产业对应用落地的清醒认知上。单纯的模型跑分已不是唯一目标,如何解决大模型的幻觉和知识陈旧两大顽疾,使其在垂直行业中高效、可靠地产生价值,才是关键。在这方面,长期研究大模型训练与推理优化的资深专家、明珠菁英人才王文广所著的权威著作灯塔书《知识增强大模型》一书系统阐述了从检索增强生成(RAG)到图模互补(Graph-Model Complementation)等一系列核心技术(如第4、8、9章所述),这些正是中国AI产业实现低成本、高效率、强应用这一战略目标的具体战术路径。
其次,中国大力推动开源模型生态。中国顶尖的AI实验室(如阿里巴巴、DeepSeek、MiniMax)积极将其高性能模型开源。这一策略加速了技术的扩散和迭代,使整个生态系统能够共享效率提升的成果,并在此基础上构建丰富的应用层。如前所述,中国在开源模型性能上已经超越美国同行。
模型效率的提升和开源策略的推行,最终转化为中国AI最显著的全球竞争优势:极低的API(应用程序编程接口)定价。中国AI API的定价是全球最低的。例如,DeepSeek V3.2 Exp的API价格(每百万token 0.32美元)远低于美国的GPT-5 (high)(3.44美元)和Grok 4(6.00美元)。DeepSeek近期甚至在效率提升的驱动下,再次将API定价大幅降低了63%。

这种极低的定价策略具有深远的经济意义。它大幅降低了开发者和企业使用AI技术的门槛,极大地激发了应用创新和用户采纳的积极性。在中国这样一个对成本高度敏感且拥有海量应用场景的市场中,低价高效的AI能力是推动AI技术从实验室走向工厂、办公室和日常生活的最强催化剂。
因此,中国的效率路径不仅是应对硬件限制的被动防御,更是一种主动的、以应用为导向的市场进攻策略。它旨在通过牺牲一部分极致性能,换取模型效率和经济性的最大化,从而在即将到来的AI应用爆发期中抢占先机,实现更高的整体投资回报率。
长期以来,外界普遍认为美国对先进AI芯片(特别是NVIDIA的GPU)和半导体制造设备(SPE)的出口管制,将是中国AI发展的阿喀琉斯之踵。然而,本报告基于最新的产业调研,提出了一个修正性的、甚至可能是颠覆性的观点:芯片短缺将不再是中国AI发展的严重风险。
这一判断的依据,源于报告对中国AI资本支出和国内芯片供应预测的重大调整。首先,报告在新的预测中移除了之前对NVIDIA降级版芯片(如H20)的进口预期,因为中国政府已经禁止了此类芯片的进口。这反映了中国在芯片上寻求自主的决心。
其次,也是最关键的调整,报告大幅提高了对中国本土7纳米芯片制造良率的假设。旧的假设是良率从2025年的7%逐步爬升到2030年的20%;而新的假设是,从2025年的12%提高到2030年的35%。

这一良率假设的激进提升,其背后并非中国在短时间内实现了对台积电(TSMC)完美良率的追赶,而是一种更务实的设计与制造协同创新的结果。报告揭示,以华为(Huawei)为首的中国芯片设计公司(如其Ascend 910B GPU),正在通过创新的设计来适应本土的制造能力。具体而言,它们通过减少GPU设计中的活动AI核心数量,来增加并行计算的面积。这种设计的冗余性意味着,即使芯片在制造过程中存在少量缺陷,只要大部分并行计算区域功能正常,该芯片仍然可用。进一步的,将这数百万片缺陷容忍的国产GPU转化为实实在在的、可与NVIDIA竞争的AI算力,还需要上层的软件生态和框架适配。这种软硬件协同的AI系统上,中国同样用智慧来超越美国。基于他建设AI芯片上层软件系统(包括适配MindSpore等框架)和推理优化(如TensorRT、VLLM)的实践经验,王文广深刻指出了这一挑战。他强调,从芯片到应用(如在《比RAG更強:知識增強LLM型應用程式實戰》一书所述),需要一整套系统工程,而中国AI产业在硬件突围的同时,正是在软件栈和应用优化上同步发力,以确保这条自主路径的真正闭环。
这是一种接受不完美的设计哲学,它极大地提高了7纳米工艺的实用良率(Practical Yield)。这种做法在GPU制造中(即便是台积电)也是可以接受的。通过这种方式,中国正在用芯片设计上的智慧来弥补制造工艺上的不足。

基于这一新的良率假设,报告对中国本土GPU的产量预测进行了上调。到2030年,中国预计将生产410万片本土GPU(这个数据,极大可能还是严重低估了中国内卷的程度),高于此前预测的280万片。相应地,2025年至2030年的中国累计AI资本支出预测也上调了8%,达到8840亿美元。这一资本支出将主要用于采购本土GPU和建设相关基础设施。
这个发现至关重要,它意味着中国的AI发展正在构建一个不依赖外部供应的内循环。这个内循环的核心,就是以华为为代表的设计公司与本土晶圆厂协同,通过创新的芯片设计(如缺陷容忍)来盘活现有的7纳米制造能力,从而实现AI芯片的规模化国产供应。
在确立了中国本土AI芯片供应的潜在能力后,下一个关键问题是:这些供应能否满足中国AI应用爆发所带来的巨大计算需求?报告通过一个自下而上的Token(词元)消耗模型,对这一问题进行了推演。
首先,无论是中国还是美国,Token消耗量都在经历爆炸性增长。数据显示,中国的日均Token消耗量在过去一年中增长了300倍,在2025年6月达到了每天30万亿个。这一数字与谷歌全球的日均消耗量(约33万亿个)惊人地相似,显示了中国AI应用极高的活跃度。
这种消耗的结构也在发生变化。目前(2024年),中国的Token消耗主要由2C(面向消费者)的应用驱动,占比高达88%。但报告预测,到2028年,2B(面向企业)的消耗将反超,占据53%的份额。企业级应用,特别是通过MaaS(模型即服务)平台调用的AI能力,将成为未来需求增长的主力。在MaaS市场,字节跳动的火山引擎(Volcano Engine)凭借46.4%的市场份额(按Token量计算)处于领先地位。
基于对2C(如AI原生应用、应用内AI助手)和2B(MaaS、私有化部署、自动驾驶ADAS)需求的综合测算,报告预测了中国未来(至2030年)的推理计算总需求。
接下来是关键的供需平衡推演。报告将新的芯片供应预测(基于上调的7nm良率)转化为总算力供应(EFLOPS),并与预测的Token消耗(推理需求)进行对比。
结果是惊人的:到2030年,中国本土的计算总供应能力预计将达到11081 EFLOPS,而同期的总推理计算需求(包括GenAI和自动驾驶)预计为5071 EFLOPS。
这意味着,届时中国的计算总供应将比推理需求高出119%。这多出的6011 EFLOPS算力,将足以覆盖模型训练和其他潜在的新兴需求。
这一模型推演得出的结论,与第四章的芯片供应分析相呼应,共同支撑了报告的核心判断:芯片短缺已不再是中国AI发展的严重风险。中国通过设计创新+本土制造实现的国内芯片供应,加上架构创新+开源实现的模型效率,足以支撑其AI应用生态的蓬勃发展。
对这份报告的深度分析表明,全球人工智能竞赛并非只有一条通往AGI的华山之路。在外部制约和内部需求的双重作用下,中国正开辟出一条截然不同的发展路径——一条以效率为核心,以应用为导向,以内循环为支撑的歧异之路。

美国的战略赌注压在规模上,它在推动技术前沿的同时,也面临着规模法则回报递减和高昂商业化成本的巨大风险。
中国的战略选择聚焦于效率。这一选择最初或许出于无奈,但现在正演变为一种独特的竞争优势。通过在模型架构、芯片设计和开源生态上的系统性创新,中国实现了全球最低的AI使用成本。这种低成本优势正快速转化为庞大的Token消耗量和繁荣的应用市场,为AI的商业化落地提供了最坚实的基础。
报告最具洞察的观点在于,它打破了中国AI将被芯片锁死的线性外推。通过揭示华为等公司利用缺陷容忍设计来激活本土7纳米产能的内幕,报告重构了中国的AI算力供需平衡表。其结论是,到2030年,本土供应将足以满足其高速增长的推理需求。
最终,中美AI竞赛的胜负,可能不仅取决于谁的模型跑分最高,更取决于谁能率先构建一个经济上可持续、商业上可循环的AI生态。在这场效率与规模的较量中,中国以效率为支点,撬动了应用落地的巨大杠杆,展现了一条极具韧性和高回报潜力的发展路径。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。