Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >腾讯混元宣布大语言模型和3D模型正式开源!

腾讯混元宣布大语言模型和3D模型正式开源!

作者头像
腾讯开源
发布于 2025-02-05 03:05:41
发布于 2025-02-05 03:05:41
5890
举报

腾讯混元大模型正在加快开源步伐‍

11月5日,腾讯混元宣布最新的MoE模型“混元Large“以及混元3D生成大模型“ Hunyuan3D-1.0”正式开源,支持企业及开发者精调、部署等不同场景的使用需求,可在HuggingFace、Github等技术社区直接下载,免费可商用。

本次开源是腾讯混元继文生图模型后持续开放的一大举措。其中,腾讯混元Large是目前开源领域参数规模最大、效果最好的MoE模型,而腾讯混元3D生成大模型则是业界首个同时支持文字、图像生成3D的开源大模型。两个模型均属腾讯全链路自研,在架构、算法、数据等方面有独特创新,填补了行业空白。目前,两个模型均已经在腾讯业务场景中落地应用,经过实践的检验,是面向实用场景的应用级大模型。

当天,腾讯云TI平台和高性能应用服务HAI也开放接入这两个模型,为模型的精调、API调用及私有化部署提供一站式服务。

坚持MoE架构,模型持续升级开放

腾讯混元Large模型总参数量 389B,激活参数量 52B ,上下文长度高达256K,公开测评结果显示,腾讯混元Large 在CMMLU、MMLU、CEval、MATH等多学科综合评测集以及中英文NLP任务、代码和数学等9大维度全面领先,超过Llama3.1、Mixtral等一流的开源大模型。

腾讯混元Large 在各类测试集上得分领先现有主流开源模型

MoE(Mixture of Experts),即混合专家模型,是目前国内外主流的大模型结构。2024年年初,腾讯混元就宣布在国内率先采用MoE架构模型,总体性能比上一代Dense模型提升50%。此后,腾讯混元推出基于 MoE 架构的多模态理解大模型以及基础模型"混元turbo",在性能、效果、速度等多个领域表现优越,第三方测评居国内大模型第一。

在模型结构和训练策略方面,腾讯混元Large全面探索了MoE ScalingLaw,进行了MoE共享专家路由、回收路由等策略上的创新,并引入了专家特化的学习率适配训练策略,有效提升不同专家利用率和稳定性,带来模型效果的提升。

腾讯混元Large在Post-Train方面做了大量创新优化。面对SFT通用领域繁多,数学、代码高质量指令数据获取困难,业界广泛采用的离线DPO,强化策略效果上限不高,泛化性弱等挑战,腾讯混元Large模型分门别类提升数学、逻辑推理、代码等能力,另外在一阶段离线DPO的基础上引入了二阶段在线强化策略。

数据方面,腾讯混元Large构建了覆盖数十个类目,高质量、高多样性、大量级的中英文合成数据,显著提升模型效果,其中数学和代码效果提升超过10%。针对长文领域测评数据集缺乏,方法不够客观等问题,腾讯混元Large还基于公开数据,构建了一套完整覆盖长文阅读理解、多文档摘要总结、长文逻辑推理等领域任务的数据集企鹅卷轴(PenguinScrolls),并将对外开放,助力大模型长文方向的技术研究。

腾讯混元Large模型专项提升的长文能力已经应用到腾讯AI助手腾讯元宝上,最大支持256K上下文,相当于一本《三国演义》的长度,可以一次性处理上传最多10个文档,并能够一次性解析多个微信公众号链接、网址,让腾讯元宝具备独有的深度解析能力。

工程平台方面,腾讯混元Large模型由腾讯全链路自研,其训练和推理均基于腾讯Angel机器学习平台。其中,针对 MoE 模型通信效率问题,Angel训练加速框架AngelPTM实现了多项技术优化,性能是主流开源框架DeepSpeed的2.6倍;针对模型推理加速,腾讯Angel机器学习平台和腾讯云智能联合研发 AngelHCF-vLLM框架,在最大限度保障精度的条件下,可节省50%以上显存,相比于业界主流的框架BF16吞吐提升1倍以上。

腾讯混元Large 模型已同步上架腾讯云 TI平台。TI 平台具备实战型大模型精调工具链,提供灵活的大模型训练数据标注能力和开源的数据构建Pipeline,内置 Angel训练和推理加速能力,支持一键启动混元Large精调,帮助用户训练出真正满足业务需求的专属大模型,提升研发效率。

同时,腾讯混元大模型 PaaS平台开放支持包含混元 Large 模型在内的十余种混元API 服务调用,可满足文生文、图生文、文生图等不同模态以及角色扮演、functioncall、代码等不同专项的模型需求。

业界首个同时支持文字、图像生成3D的开源大模型

腾讯混元3D生成大模型首批开源模型包含轻量版和标准版,轻量版仅需10s即可生成高质量3D资产,目前已在技术社区公开发布,包含模型权重、推理代码、模型算法等完整模型,可供开发者、研究者等各类用户免费使用。

腾讯混元Hunyuan3D-1.0模型也已上架到腾讯云HAI,通过HAI上更高性价比的GPU算力、模型一键部署能力和可视化图形界面WebUI,有效降低模型开放和部署门槛。

此次腾讯混元开源的3D生成大模型 Hunyuan3D-1.0 ,解决了现有的3D生成模型在生成速度和泛化能力上存在不足的问题,可以帮助 3D 创作者和艺术家自动化生产 3D 资产。该模型具有强大泛化能力和可控性,可重建各类尺度物体,大到建筑,小到工具花草。经过定性、定量多个维度的评估,腾讯混元3D生成大模型的生成质量已达到开源模型的先进水平。

在两个公开的3D数据集 GSO 与 OmniObject3D 上,腾讯混元Hunyuan3D-1.0 效果优于主流开源模型,整体能力属于国际领先水平。从定性角度评估,Hunyuan3D-1.0 与行业领先的开源模型的 3D 生成效果表现对比也显示出较高水平,包括几何细节、纹理细节、纹理-几何一致性、3D合理性、指令遵循等评价维度。

应用上,3D生成相关技术已经开始应用于UGC 3D创作、商品素材合成、游戏3D资产生成等腾讯业务中。其中,腾讯地图基于腾讯混元3D大模型,发布了自定义3D导航车标功能,支持用户创作个性化的 3D 导航车标,相比传统的3D车标重建方案,速度提升了91%。此前,腾讯元宝 APP 也上线了”3D 角色梦工厂“玩法,支持个性化的 UGC 3D 人物生成。

随着自研大模型技术强大的和应用实践经验的丰富,开源已经成为腾讯混元大模型的一个战略选择,未来,腾讯混元也将继续带来更多模态、更多尺寸的开源模型,将更多经过腾讯业务场景打磨和检验的模型开源,促进大模型技术进步和行业生态繁荣。

附:腾讯混元Large访问地址

官网地址:https://llm.hunyuan.tencent.com/

Github 项目地址:

https://github.com/Tencent/Tencent-Hunyuan-Large

HuggingFace模型地址:

https://huggingface.co/tencent/Tencent-Hunyuan-Large

附:腾讯3D模型访问地址

官网地址:https://3d.hunyuan.tencent.com/

Github 项目地址:

https://github.com/Tencent/Hunyuan3D-1

HuggingFace模型地址:

https://huggingface.co/tencent/Hunyuan3D-1

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-11-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 腾讯开源 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
刚刚,腾讯混元开源两大核心模型!
腾讯混元 Large 的模型总参数量 389B,激活参数量 52B ,上下文长度高达256K,是当前业界参数规模最大、效果最好的 MoE 模型,同时通过技术的优化,也更适配开源框架的精调和部署,具有较强的实用性。
腾讯云开发者
2024/11/07
4220
刚刚,腾讯混元开源两大核心模型!
腾讯混元又来开源,一出手就是最大MoE大模型
随着人工智能技术的快速发展,大型语言模型(LLMs)在自然语言处理、计算机视觉和科学任务等领域取得了显著进展。然而,随着模型规模的扩大,如何在保持高性能的同时优化资源消耗成为关键挑战。为了应对这一挑战,腾讯混元团队率先采用混合专家(MoE)模型架构,最新发布的 Hunyuan-Large(Hunyuan-MoE-A52B)模型,是目前业界已经开源的基于 Transformer 的最大 MoE 模型,拥有 389B 总参数和 52B 激活参数。
机器之心
2025/02/14
1850
腾讯混元又来开源,一出手就是最大MoE大模型
目前最大最好的MoE开源模型,腾讯开源了混元Hunyuan-large和3D模型
“ 混元大模型(Hunyuan-large)正式发布,可免费商用。基于MoE架构,拥有389B参数规模,支持256K的上下文。在多项评测中超越了LLama3.1。混元大模型采用了高质量合成数据增强训练、专家特定的规模定律等创新技术。”
技术人生黄勇
2024/11/07
3240
目前最大最好的MoE开源模型,腾讯开源了混元Hunyuan-large和3D模型
腾讯混元再次开源!腾讯云TI平台支持一键精调与推理
刚刚,腾讯混元又开源了两个重磅模型:最新的MoE模型「混元Large」以及混元3D生成大模型「Hunyuan3D-1.0」正式开源。开发者可在HuggingFace、Github等技术社区直接下载(链接请见阅读原文)。
小腾资讯君
2024/11/07
2180
腾讯悄悄开源了两款大模型,他们快成中国的Meta了。
而且不藏着掖着,直接开源了他们最好的模型,分别是MoE模型“混元Large”、混元3D大模型“ Hunyuan3D-1.0”。
数字生命卡兹克
2025/04/14
790
腾讯悄悄开源了两款大模型,他们快成中国的Meta了。
首个中文原生DiT架构,腾讯混元文生图大模型开源
腾讯宣布旗下的混元文生图大模型全面升级并对外开源,目前已在 Hugging Face 平台及 Github 上发布,包含模型权重、推理代码、模型算法等完整模型,可供企业与个人开发者免费商用。
腾讯混元
2024/05/16
9215
首个中文原生DiT架构,腾讯混元文生图大模型开源
混元文生图大模型正式开源:15 亿参数、首个中文原生DiT架构、与腾讯现网版本完全一致!
5 月 14 日,腾讯正式对外开源了全面升级的混元文生图大模型——首个中文原生 DiT 架构(与 Sora 同架构)文生图开源模型,支持中英文双语输入及理解,
腾讯云开发者
2024/05/17
1.4K0
混元文生图大模型正式开源:15 亿参数、首个中文原生DiT架构、与腾讯现网版本完全一致!
腾讯混元文生图大模型开源训练代码,发布LoRA与ControlNet插件
6月21日,腾讯混元文生图大模型(以下简称为混元DiT模型)宣布全面开源训练代码,同时对外开源混元DiT LoRA 小规模数据集训练方案与可控制插件ControlNet。
混元
2024/06/21
2750
全面开源,免费商用!腾讯| 发布混元文生图大模型,采用业内首个中文原生DiT架构!
5 月 14 日,腾讯宣布旗下混元文生图大模型全面升级并全面开源,目前已在 Hugging Face 平台及 GitHub 上发布,包含模型权重、推理代码、模型算法等完整模型,可供企业与个人开发者免费商用。
ShuYini
2024/05/17
3K0
全面开源,免费商用!腾讯| 发布混元文生图大模型,采用业内首个中文原生DiT架构!
腾讯混元-3D-2首个开源高质量3D-DIT大模型 建模利器
腾讯开发的大规模3D生成系统,旨在通过AI技术高效生成高分辨率、带纹理的3D资产。它结合了先进的生成模型与用户友好的生产工具,适用于从专业设计到普通用户快速建模的多种场景。
疯狂的KK
2025/03/19
2400
腾讯混元-3D-2首个开源高质量3D-DIT大模型 建模利器
中文原生文生图大模型来了!腾讯混元推出,Sora 同架构
腾讯混元已面向社会全面开放,企业级用户或开发者可通过腾讯云使用腾讯混元大模型,个人用户可通过网页端与小程序【腾讯混元助手】体现腾讯混元的能力。
混元
2024/05/14
1K0
腾讯混元开源Hunyuan 3D 2.0家族新模型 推动3D UGC生态发展
2025年3月18-19日 腾讯混元在开源日活动上正式开源基于Hunyuan 3D 2.0技术框架的5款三维生成模型,进一步丰富了3D AIGC社区。
腾讯开源
2025/03/29
5370
腾讯混元开源Hunyuan 3D 2.0家族新模型 推动3D UGC生态发展
腾讯混元大模型:技术演进、生态突围与开发者机遇
2024年,全球大模型竞赛已从参数规模的"军备竞赛",转向技术实用性、生态渗透率与商业价值的综合较量。在这场战役中, 腾讯混元 大模型凭借Hybrid-Mamba-Transformer架构创新、全场景AI助手矩阵和开源生态协同三大战略,正快速构建从技术到落地的完整闭环。本文将深度解析混元大模型的技术演进路径、行业应用场景,并为开发者揭示参与生态建设的实战机遇。
Front_Yue
2025/03/13
3030
腾讯混元大模型:技术演进、生态突围与开发者机遇
我们也终于有了自己的开源AI绘图大模型,它叫,腾讯混元。
坦率的讲,一直以来,我都很希望在AI绘图领域,有一个我们自己的开源的AI绘图大模型标杆的。
数字生命卡兹克
2025/04/14
1150
我们也终于有了自己的开源AI绘图大模型,它叫,腾讯混元。
腾讯全面拥抱大模型,腾讯混元正式亮相
9月7日,在2023腾讯全球数字生态大会上,腾讯混元大模型正式亮相,并宣布通过腾讯云对外开放。
混元
2023/09/07
2180
腾讯混元:开源模型生图时间缩短75%!
开源不到一个月,腾讯混元文生图大模型(混元DiT模型)的Github Star数已达到2.1k,位于开源社区热门DiT模型前列!
小腾资讯君
2024/06/06
4370
腾讯混元悄悄开源3D大模型2.0,开源社区真的过年了。
早上MiniMax上线TTS,字节上线AI编程Trae;下午字节全量上线豆包实时语音;晚上DeepSeek开源R1性能直接对标OpenAI o1,然后Kimi的k1.5直接正面硬刚。
数字生命卡兹克
2025/04/14
1360
腾讯混元悄悄开源3D大模型2.0,开源社区真的过年了。
腾讯混元新一代快思考模型 Turbo S 发布
区别于 Deepseek R1、混元T1等需要“想一下再回答”的慢思考模型,混元 Turbo S 能够实现“秒回”,更快速输出答案,吐字速度提升一倍,首字时延降低44%。
腾讯开源
2025/02/28
4790
腾讯混元新一代快思考模型 Turbo S 发布
来了!腾讯正式发布自研大模型混元!
在 2023 年 9 月 7 日举办的 2023 全球数字生态大会上,腾讯正式发布自研通用大语言模型——混元,并宣布通过腾讯云对外开放。本文将主要介绍混元的相关信息与腾讯发展大模型的态度与打法。腾讯云开发者公众号后续还将对话混元大模型技术团队,带来更为深度的技术解读,点个关注不迷路!
腾讯云开发者
2023/09/07
2.9K3
来了!腾讯正式发布自研大模型混元!
腾讯全面拥抱大模型,腾讯混元刚刚正式亮相
9月7日,在2023腾讯全球数字生态大会上,腾讯混元大模型正式亮相,并宣布通过腾讯云对外开放。
腾讯技术工程官方号
2023/09/09
5890
腾讯全面拥抱大模型,腾讯混元刚刚正式亮相
推荐阅读
相关推荐
刚刚,腾讯混元开源两大核心模型!
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档