首页
学习
活动
专区
圈层
工具
发布

瑞士 100% 开源 Apertus 叫板全球大模型:你的数据干净吗

算泥社区是集 “AI 大模型开发服务 + 算法 + 算力” 于一体的开源生态社区,欢迎关注!

AI江湖又起波澜,但这次的主角不是大家熟悉的硅谷巨头,而是来自宁静的瑞士。

瑞士联邦理工学院洛桑分校 (EPFL)、苏黎世联邦理工学院 (ETH Zurich) 与瑞士国家超级计算中心 (CSCS) 联手搞了个大事情,他们发布了一款名为Apertus的大规模开源语言模型。Apertus在拉丁语里是“开放”的意思,而它也确实把“开放”这两个字做到了极致。

这事儿在全球科技圈里炸开了锅。在OpenAI的GPT系列、Meta的Llama、Anthropic的Claude这些美国大模型还在玩“数据黑箱”魔术的时候,Apertus从模型权重、架构、训练代码,到数据配方,甚至连完整的训练过程文档,全部公开,一点不藏着掖着。

开发团队说得很直白,他们就是要给世界,尤其是给欧洲,提供一个“可信赖、主权、包容”的AI基础,一个美国大模型的伦理替代选择。试图在被美国主导的AI格局里,闯出一条欧洲自己的路,一条关乎“技术主权”和“伦理自主”的路。

正如EPFL机器学习教授、瑞士AI倡议指导委员会成员Martin Jaggi所说:“我们希望提供一个蓝本,展示如何开发可信赖、主权、包容的AI模型。”

参数、数据、代码全透明,它凭什么叫板GPT?

Apertus敢这么高调地站出来,自然是有备而来。我们来看看它的“家底”到底有多厚。

首先,技术架构上,它用了纯解码器Transformer架构 (decoder-only transformer),这算是目前主流的配置。贴心的是,它提供了两个版本:一个80亿参数的8B版,适合个人开发者和一些轻量级应用;还有一个700亿参数的70B版,专门给科研和商业场景准备的硬菜。

模型从零开始训练,用上了新型的xIELU激活函数和AdEMAMix优化器,后来还经过了监督微调 (SFT) 和QRPO对齐技术的精加工。它的上下文窗口长达65,536个tokens,处理长篇大论或者复杂推理都不在话下,而且天生就支持工具使用,这让它在构建智能代理方面很有潜力。

它的训练数据,足足15万亿的tokens,是目前公开报道里最大的开源训练数据集之一。这些数据全部来自明确允许爬取的公开网站,并且严格遵守所有机器可读的退出请求,甚至支持你回头找它把你之前的数据给删了。团队还特意过滤了个人数据和不当内容,这就从根源上避免了美国大模型因为“记忆”了某些不该记的东西而引发的隐私争议。

语言覆盖更是Apertus的一大杀手锏。官方说支持1811种语言,其中将近40%都不是英语。这意味着它不再是一个“英语偏科生”,而是一个真正的“全球通”,对于欧洲、非洲、亚洲这些多语言环境复杂的地方来说,简直是福音。

训练这么个大家伙,算力肯定不能含糊。它是在瑞士国家超级计算中心 (CSCS) 的Alps超级计算机上炼成的,动用了4096块英伟达的GH200 GPU。这配置虽然跟美国科技巨头那些不计成本的顶级集群比可能还有差距,但在欧洲地界上,绝对是顶尖水平了。

最后说到开源,Apertus可以说是把“开源精神”贯彻到了牙齿。不光是模型权重和推理代码,连训练数据、数据重建脚本、所有的训练配方 (recipes)、中间的检查点 (checkpoints),你都能在Hugging Face平台上一览无余。团队还贴心地准备了厚厚的技术报告和专门应对欧盟AI法案的透明度文件,甚至设立了专门的邮箱来处理数据保护和版权移除的请求。

为了让大家看得更清楚,我们把它和现在市面上的几位“大佬”拉出来遛遛:

数据来源:ETH Zurich官方新闻、Hugging Face模型页、The Verge、InfoWorld、行业评测(aubergine.co、civo.com)

性能上,根据Hugging Face官方的评测,Apertus-70B在通用语言理解任务上的平均分和Llama 3-70B打了个平手,虽然比Qwen2.5-72B稍低一点,但已经把Mistral、OLMo2这些开源模型甩在了身后。尤其是在多语言任务上,Apertus凭借自己丰富的语言库,表现相当抢眼。连Hugging Face的研究主管Leandro von Werra都忍不住点赞:“Apertus是开源模型的新里程碑,在规模和计算量上具有开创性。”

当AI开始讲“道德”,这事儿有多重要?

Apertus之所以被称为“伦理替代”,关键就在于它解决了美国大模型一直以来最让人头疼的两个问题:数据来源不明和法律合规风险。

美国那些大公司,一问到训练数据是哪来的,就含糊其辞,统一口径说是“互联网公开数据”。但具体爬了哪些网站,有没有版权内容,怎么处理用户的退出请求,全都是一笔糊涂账。这就导致了官司缠身,比如《纽约时报》告OpenAI那档子事,闹得沸沸扬扬。

Apertus的做法就不一样了,它把数据来源这本账摊开给你看,清清楚楚,明明白白。只用那些允许爬取的内容,尊重所有网站的规定,甚至还支持“反悔”,这就从根上断了版权和隐私的纠纷。苏黎世大学ETH AI中心的Imanol Schlag说得好:“完全开放模型支持高信任应用,推动AI风险与机遇研究,透明流程保障监管合规。”

另一方面,欧盟那个号称史上最严的《2024年AI法案》,让很多美国科技巨头都觉得束手束脚。但Apertus从娘胎里出来就严格按照这个法案设计,主动公开各种透明度文件,简直就是个“模范生”。这对于欧洲企业来说意义重大,他们终于可以不用再依赖美国或者中国的闭源模型,就能在自己家门口部署一个完全合规、数据主权牢牢掌握在自己手里的AI系统了。

更有意思的是,Apertus团队还提出了一个“责任开源”的框架。代码和数据你随便用,完全开放,但如果你要拿去做生意,就得签个“君子协议”,保证不用它来干坏事。这种做法,既保留了开源的分享精神,又给技术的滥用上了一道锁。

银行家和开发者们,到底买不买账?

Apertus横空出世,各行各业的人也都开始议论纷纷。

瑞士的银行家们普遍表示欢迎,觉得这东西“长期潜力巨大”,特别对他们这种把数据保密看得比天还大的行业胃口。但现实也很骨感,瑞士最大的银行瑞银集团 (UBS) 早就和OpenAI、微软深度合作了,大企业还是更倾向于那些已经成熟的商业方案。瑞士银行家协会的发言人说得很中肯:“本土LLM对金融业有长期潜力,但实际采用需综合评估性能、合规与成本。”

制造业和公共服务领域则看到了更多的机会。代表瑞士机电行业的Swissmem就认为,Apertus更符合欧洲的数据法规,很适合本地企业。

开发者社区对Apertus的完全透明和多语言支持赞不绝口,但也有人犯嘀咕,那个70B的大版本对硬件要求可不低,中小企业要想自己部署,恐怕还是得靠云服务。

Apertus到底能不能真正成为“美国大模型的伦理替代”,还要看它后续的生态建设和市场表现。但就像EPFL助理教授Antoine Bosselut说的那样,“Apertus的发布不是终点,而是开放、可信赖、主权AI基础的长期承诺起点。”

参考资料:

https://ethz.ch/en/news-and-events/eth-news/news/2025/09/press-release-apertus-a-fully-open-transparent-multilingual-language-model.html

https://huggingface.co/swiss-ai/Apertus-70B-2509

https://github.com/swiss-ai/apertus-tech-report

https://github.com/swiss-ai/pretrain-data

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OUEYCXL35aWIiW4e3FrItzqA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

领券