首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >GLM-5已发布,大模型商业路殊途同归,请做好AI成本上涨的准备!

GLM-5已发布,大模型商业路殊途同归,请做好AI成本上涨的准备!

作者头像
www.tangshuang.net
发布2026-03-03 16:56:07
发布2026-03-03 16:56:07
40
举报

昨天才发文章推了一把Pony Alpha这个神秘模型,今晨智普就出来认领,让我的文章感觉很废,OpenRouter上已经无法使用该模型,昨晚有小伙伴按照我文章的提示,体验了吗?体验了一天,接下来,我想站在一个创业者的角度,认真的聊一聊,大模型市场商业趋势。

来自资本市场的认可

作为智普的新一代模型,glm-5在各项指标上都有比较明显的进步。随着新模型的上线,股价也在一天内飙升28%,可见市场还是很认可新模型的。虽然二级市场不能说与企业动作有直接关联,但是,透过二级市场,我们可以看清资本市场对智普新的商业模式的认可,投资者认为这家公司会在未来一定时间内,拥有一定的商业护城河,因此,愿意投资。

到底强在什么地方?

那么,这个新模型到底强在什么地方呢?

1. 参数“暴力美学”

GLM-5在架构上进行了非常激进的升级,总参数量从上一代的355B暴增至744B,激活参数暴增至40B。这种激进的策略,最终实现了它的“高智商”。

同时,它引入了DeepSeek同款的Sparse Attention (DSA),也就是一种上下文稀疏注意力机制,从而解决了超大规模模型在长上下文时的推理成本问题。在之前的文章中,我就提到,它的上下文长度可以达到200k,输出达到了128k。更恐怖的是,在长文本压力测试中,它几乎保持了100%的召回率。

2. 工程级代码生成

它不再局限于局部代码处理,而是定位为系统级架构师。它可以处理跨度长达数小时、涉及数百步操作的复杂任务,并且维持长期的目标一致性。

在 SWE-bench Verified(编程基准测试)中拿到了 77.8 的高分,稳居开源模型第一。开发者反馈它在处理整个后端架构重构、微服务设计、复杂的 CI/CD 流动性任务时,体感已经逼近 Claude 4.5 Opus

3. 低幻觉率

在 AA-Omniscience(全知指数)测试中,其幻觉率比 GLM-4.7 降低了 56%。网友普遍反馈,GLM-5 更加“清醒”,当面对知识盲区时,它会主动选择拒绝回答或质疑不合理的指令,而不是一本正经地胡说八道。

4. 开源强如斯

此前,“开源不如闭源”是共识。然而,随着glm-5的开源,其性能已跨入顶级梯队(对标 GPT-5.2 xhigh 和 Claude 4.5)。

不够有诚意

首先,在编程套餐(Coding Plan)中,已订阅用户并不能立即享受,只有涨价后的Max订阅用户可以使用该模型。

其次,在官方API(按token付费)限频中,普通用户只拥有1个并发数限制,意味着无法直接使用该模型在claude code中使用。(我看到官网有一个glm-5-code模型,没有在限频页面列出,或许没有限制。)

最后,价格上,GLM-5偏离了原本超高性价比的路线,新模型输入价格是原来的2倍,输出是原来的2.25倍。(glm-5-code的价格则更离谱。)由于该模型在持续性任务上更强,意味着相同任务,它愿意花更多的token来彻底解决问题。意味着,面对同样的任务,新模型可能比老模型多花2倍以上的价格。

商业化路线的转向

过去,中国模型厂商的主要路线,是寻求性价比,也就是训练用最少的资源,训练出性能堪比顶级模型的产物,然后以超低的价格提供服务,或者直接开源。而GLM-5打破了这一惯例,它首次在中国走了类似Anthropic、xAI的路线,即不计成本的训练顶级智能,包括但不限于:

1)不计算力成本,采用了名为“slime”的新型强化学习框架,提升了训练吞吐量,使其在推理、逻辑和知识储备上产生了质变。

2)不计规模成本,首次跳出中国模型训练的渐进式惯例,直接通过堆参数来提升新一代模型的能力。

3)不计价格影响,通过提价来挑选用户,让只有付得起钱的人群才能使用得起最好的模型。

这一路线,我们隐约看到了claude、grok的商业化身影。

过去两年,国内大模型等主旋律是“低价”,以glm和deepseek这两个模型最为突出,它们具有非常前卫的性能,但是价格却低得离谱。而glm-5的发布,则意味着大模型市场从“价格战”转向“价值定价”(Demand-Driven Pricing)。智谱认为模型已进入“需求驱动时代”。GLM-5 发布后,其 Coding Plan 价格大幅上调,是国内首个敢于逆势涨价的厂商。这种策略模仿了 Anthropic 的 Claude Opus:只要你的模型在复杂任务中不可替代,开发者愿意支付溢价。当模型能力达到能够完成“系统级工程”而非仅仅是“写一段代码”时,其产生的生产力价值足以支撑更高的溢价。这与 Anthropic(Claude)坚持的高质量、高单价路线高度一致。

过去,中国模型受限于技术、芯片,往往尝试在参数、算力和算法之间寻找平衡,试图通过算法来弥补算力,其中以DeepSeek为最,其他厂商通过借鉴算法,来维持自身模型的性能。而glm-5首次展现了中国模型的暴力规模化参数,以往国产模型大多在百亿或千亿(300B 左右)参数徘徊,以追求推理成本的极致压缩,而GLM-5 选择了 744B 总参数、40B 激活参数的庞大架构。这证明智谱已跨过了“小步快跑”阶段,开始投入海量资源进行暴力 Scaling Law。这原本在海外模型厂商再正常不过的操作,在国内却是首例,原因在于,我国实现了算力脱钩。GLM-5 实现了全栈国产算力训练(完全基于华为昇腾集群),不再依赖 Nvidia GPU。这让智谱在商业化进程中彻底规避了外部供应链风险,拥有了与 Grok(xAI 拥有超大 H100 集群)对等的资源确定性。

过去,中国模型厂商的目标人群选择常常处于非常尴尬的夹缝中,模型厂商试图通过B端创收,但是由于中国市场B端似乎并不买账,因此,又不得不在C端想办法,但是又必须承担C端购买力差带来的长期亏损。而GLM-5明显有一个非常清晰的定位,就是面向B端用户,无论是从模型的能力描述来看,还是从定价来看,都印证了这一点。另外,智普通过海外平台z.ai来实现全球化,而通过重新定位自己的客户人群,将直接参与和openAI、Anthropic的全球AI模型的B端市场竞争。其在 OpenRouter 上以代号“Pony Alpha”霸榜,证明其商业触角已伸向全球开发者市场,直接与闭源巨头抢食。

而这种路线的变化,很有可能会在国内其他厂商看到甜头后开始跟进,成为中国模型厂商在商业化上追赶海外厂商的一个契机。不过,对于用户而言,则要做好模型涨价成本上升的准备。

结语

在短短几周时间里,openAI发布了gpt-5.3 codex,Anthropic发布了Claude Opus 4.6,智普发布了GLM-5。同时,deepseek v4已经开始灰度,并且在今天有大量消息称其上下文得到扩展,MiniMax M2.5即将发布。此外,字节的seedance2.0也追赶上了sora2,并且有过之而无不及。Agent领域也正在发生着各种重大变革。AI的世界正在悄然发生着巨变。“未来已来”这个词都显得过时,我们现在正处在未来之中。AI会不断的改造着我们这个世界,我们作为普通人,需要掌握使用AI的能力,才能在未来世界,找到自己的锚点,做出有意思有价值的事。如果你有什么想法,欢迎在下方留言讨论。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2026-02-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 唐霜 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档