作者 | 刘燕
InfoQ 获悉,近日,超对称联合复旦大学发布并开源 120 亿参数语言模型 BBT-2。
2022 年 5 月超对称技术公司发布了大语言模型 Big Bang Transformer【乾元】的第一版 BBT-1,10 亿参数预训练语言模型,在中文金融语料上训练而成。近期,超对称公司再推出 BBT-2,120 亿参数的通用大语言模型,并在 BBT-2 的基础上训出代码,金融,文生图等专业模型。
据悉,Big Bang Transformer【乾元】12B 大模型的开发基于英伟达的 DGX 算力,超对称公司主导大模型的预训练,并联合复旦大学知识工场实验室完成指令微调和评测工作。
超对称技术公司将发布基于 BBT-2 的系列模型(模型 Index 见于 https://bbt.ssymmetry.com)
另外,通过与 UCloud 在开源方面的合作,超对称还将 3 个大模型开源到官网、Github 和 UCloud,后续用户可直接在 UCloud 官方平台通过 GPU 云主机的行业镜像或算力平台直接开箱使用这些模型:
(1)BBT-1-0.2B-001:2 亿参数,金融模型,T5 Decoder+Encoder 架构
(2)BBT-1-0.2B-002: 2 亿参数,金融模型,T5+GPT
(3)BBT-1-0.2B-003: 2 亿参数,金融模型,T5+UL2
开源下载链接:
模型:
语料库,开源了接近 1000 亿 tokens 的预训练语料,包括通用语料和金融语料,详见:
https://bbt.ssymmetry.com/evaluation.html
论文链接:
https://arxiv.org/abs/2302.09432
点击底部阅读原文访问 InfoQ 官网,获取更多精彩内容!
今日好文推荐
ChatGPT写21个程序,16个有漏洞:离取代程序员还远着呢!
华为投入数千人实现自主可控ERP;SpaceX星舰爆炸了,马斯克:祝贺!谷歌合并两大人工智能部门,加速力战ChatGPT|Q资讯