前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >在实践中使用ShardingJdbc组件的正确姿势(一)

在实践中使用ShardingJdbc组件的正确姿势(一)

作者头像
用户2991389
发布于 2018-09-05 07:07:09
发布于 2018-09-05 07:07:09
2K0
举报

文章摘要:在设计系统时,需要根据实际的业务情况来选用合适的组件构建系统。

在互联网时代,随着业务数量的暴增和应用规模的不断扩大,无论是oracle还是mysql这样子的关系型数据库,都会面临服务器CPU、磁盘IO和内存的各种瓶颈问题。基于此情况,各个业务团队迫切需要一种数据分片的方案将业务数据量存储成本分摊到成本可控的各个普通数据库服务器上,数据库切分的方案便应运而生。

由于之前发布的一篇文章《记一次使用ShardingJdbc切分数据库表的SpringBoot工程实践》评论中,有部分同学觉得还没有结合实际情况来进行场景深度分析与介绍,让读者还无法完全理解为何需要选用开源ShardingJdbc组件和选用其构建业务系统带来的一些优势。因此,写本文意在结合实际的业务场景进行分析,详细阐述选型开源组件—ShardingJdbc时候的一些思考,并最终给读者呈现业务系统集成ShardingJdbc的最终设计方案。另外,本文仅为使用开源组件ShardingJdbc第一篇幅,后续篇幅还将继续介绍开源组件ShardingJdbc的一些其他进阶用法。

一、数据的切分方式

一般,线上系统的业务量不是很大,比如说单库的数据量在百万级别以下,那么MySQL的单库即可完成任何增/删/改/查的业务操作。随着业务的发展,单个DB中保存的数据量(用户、订单、计费明细和权限规则等数据)呈现指数级增长,那么各种业务处理操作都会面临单DB的IO读写瓶颈带来的性能问题。

(1)垂直切分方案

这时候,我们会考虑使用对之前的整个单DB采用垂直数据切分的方案,根据不同的业务类型划分库表,比如订单相关若干表放在订单库,用户相关的表放在用户库,账务明细相关的表放在账务库等。这样就将数据分担到了不同的库上,达到专库专用的效果。

使用垂直切分方案的主要优点如下:

a.拆分后业务清晰,符合微服务的总体设计理念;

b.子系统之间的整合与扩展相对容易;

c.按照不同的业务类型,将不同的库表放在不同的数据库服务器上,便于管理;

d.根据业务数据的“冷”、“热”状态,采用不同的缓存和数据库模式设计方案;

垂直切分的缺点如下:

a.跨库的Join查询,需要使用不同子系统的API接口读取后在内存中完成关联查询,提高系统复杂度;

b.如果某一种类型的业务呈现爆发式地增长,该业务对应的库表还是会存在单DB的IO读写的瓶颈问题,从这一点来说垂直切分并未从根本解决单库单表数据量过大的问题;

c.存在跨库事务的一致性问题,解决起来比较麻烦,当然也可以采用分布式事务来解决;

(2)水平切分方案

由于本文主题讲的是利用开源组件ShardingJdbc进行数据水平切分的实践,因此对于垂直切分方案的一些细节问题就不做过多的详细介绍了。与垂直切分对比,这里讲的水平切分不是将库表根据业务类型进行分类存储,而是将其按照数据表中某个字段或某几个字段的某种规则切分存储至多个DB中,在每个库每个表中所包含的只是其中的一部分数据,所有库表加起来的才是全量的业务数据。

这种对数据的切分方式,基本可以保证经过水平切分后的单库单表存储的容量不会太大,从而保证了对单表的增/删/改/查的SQL执行效率和处理能力。其中,数据的分片规则也是需要重点考虑的,因为它会使得数据分片在多个库表中是否均匀分布存储。然而,数据水平切分方案为业务系统带来福音的同时也给系统构建带来了一些值得思考的问题。

使用水平切分方案的主要优点如下:

a.单库单表的数据容量可以维持在一个量级,有助于提高业务SQL的执行效率和系统性能;

b.不管是利用ShardingJdbc组件还是MyCat框架,业务系统的应用层涉及改造得都较少,只需要根据实际的业务情况来设计数据分片的路由规则即可;

c.可以提高业务系统的稳定性和负载能力;

使用水平切分方案的主要缺点如下:

a.数据水平切分后,分布在多库多表中,跨库Join查询比较复杂;

b.分片数据的一致性较为难保证;

c.对于历史数据的迁移和数据库的扩容需要较大的维护工作量;

二、选型ShardingJdbc组件的分析与思考

对于,“流水”/“明细”一类的业务数据,通常的业务需求是准实时或者说相对滞后,这些数据是按小时、按日和按月汇总加工处理后生成最终业务需求的数据(比如用户账单、报表和话单)。此外,由于这一类型的业务数据量普遍较大,比如清算系统的清分明细、云管平台的资源计量明细、订单系统的订单流水和云计算主机资源上报的性能数据等,如果只是使用单库单表存储的普通方案,那么在单表数据量达到千万级别以上的时候,单库的IO读写能力将持续降低,会成为业务系统整体吞吐量和性能的瓶颈。

对于上述的问题,有一些对DB较为熟悉的同学第一时间想到的解决方案,可能会是MySQL的分区表。MySQL的分区表比较适合用于解决业务数据具有较强时间序列特点,且数据量偏大的场景。但是,如果SQL的查询条件并非基于时间维度的,那么执行起来的效率并不会有所改观,同时对于处理单表千万级别以上数据量时,MySQL的分区表方案还是会显得有些“力不从心”。

对于以上这种“流水”/“明细”类的业务数据,作者还是推荐使用水平切分的方案从根本上来解决业务上遇到的单表数据过大的问题。由于该类型的业务数据基本不会涉及跨库的Join连表SQL查询、只需保证分库的本地事务,且并不会遇到上面水平切分方案中的几个需要考虑的问题,对于这样子的业务场景可以考虑使用水平切分的方案。那么,我们应该选择哪一款开源的分库分表组件,又或者是根据业务情况来自己定制化研发呢?

(1)选型分库分表中间件的分析

如果业务系统设计之初打算采用水平切分方案的话,那么有必要好好思考下如何来选型分库分表的中间件。在当前的开源组件中比较流行的两款分别为ShardingJdbc和MyCat。

ShardingJdbc这款分库分表组件代表了客户端类的分库分表技术框架,其定位为轻量级数据库驱动,可以由Spring Boot这样的业务工程直接快速集成,以jar包形式提供服务,无需额外部署和其他依赖。对于业务系统的开发人员与数据库运维人员无需改变原有的开发与运维方式。在2.X版本中,采用"半理解"理念的SQL解析引擎,以达到性能与兼容性的最大平衡。因此,ShardingJdbc即为增强版的JDBC驱动,其优势在于无需对原有的业务工程进行任何改造的基础上,即可使其拥有分库分表的能力,成本较低,易于上手。但是,也有缺点,中间件与业务应用工程绑定在一起,对应用本身有侵入。并且目前只支持Java语言,问题难以追踪。

而MyCat是一个开源的分布式数据库系统(属于代理类框架),相当于一个实现了MySQL协议的数据库代理服务器。用户可以使用MySQL客户端工具和命令行访问,而其后端使用MySQL原生协议与多个MySQL数据库服务器通信,也可以用JDBC协议与大多数主流数据库服务器通信。其分库分表的方案优点在于,能够处理非常复杂的需求,不受数据库访问层原来实现的限制,扩展性强且对于应用服务透明且没有增加任何额外负载。其缺点是上线部署需要额外的中间件,增加运维成本;应用服务需经过代理来连接数据库,网络上多了一层链接的开销,性能有损失且有额外风险。

(2)使用ShardingJdbc解决的基本业务场景

选择ShardingJdbc组件后,就需要使用该组件来解决实际的问题。这一节主要根据之前提到的“流水”/“明细”一类的业务数据,同时结合ShardingJdbc组件的特点来进行一定的分析,使得读者对正确使用ShardingJdbc组件进行业务系统水平切分有一定的了解。

前面已经提到了“流水”/“明细”类的业务数据,一般是准实时或者说相对滞后,需要按小时、按日和按月汇总处理后生成最终的业务数据(如账单、报表和话单等)。我们对“流水”/“明细型”业务数据处理过程中,一般都会涉及数据落库(Insert SQL)、数据分组汇总和分组查询(Select+sum(xxx)+Group By SQL)以及删除数据表(Delete SQL)等业务处理操作。这里有必要对这几种类型的SQL进行一定的说明:

a. 数据落库(Insert SQL):流水/明细类的数据一般都需要先DB持久化处理;以云计算平台中10W台虚拟机同时产生性能明细数据上报,如果是单库单表,则这个数据库会进行每小时会有10W次的写请求;如果使用100个分表(分10个库,每库10个表)则每个表平均承受1000次写请求,每个库平均分担1W次的请求压力,这样子就可以将原来单库单表的写请求压力成倍的减少;一般业务研发人员使用ShardingJdbc组件,设置合理的数据分片路由规则,即可使得流水/明细类的数据基本均匀落在我们预先设置的分库分表中。

b. 数据分组汇总查询(Select+sum(xxx)+Group By SQL):由于(a)中持久化至分库分表的业务数据为若干段时间的业务数据,根据业务需求还需要按日,按周或者按月进行累加汇总,因此有必要对各个分表中的数据执行Select+sum(xxx)+Group By的分组汇总SQL;ShardingJdbc组件可以完成SQL的解析、改写、路由和结果归并,对于“Select+sum(xxx)+Group By SQL”的语句,可以遍历设置的多个分库分表,对每个分库分表执行SQL后进行一个结果归并再返回给业务调用方。

c. 删除数据表(Delete SQL):一般业务系统对会通过定时任务来生成明细数据加工处理后的业务数据(比如用户账单、清偿明细、云资源按日按月的话单)。一旦生成这些有效业务数据后,原来落库的明细也就没有什么业务价值,可以通过任务定期删除或者迁移至历史库的方式来使得分库分表的数据水位量级维持在一定量,因此就需要涉及对原来存储在分库分表的明细数据进行删除;ShardingJdbc组件可以根据“Delete SQL”语句中的筛选条件进行规则路由来定位某个分库和分表,否则会删除所有分库中的分表数据。

三、业务系统集成ShardingJdbc的架构设计

根据上面对“流水”/“明细”型业务数据的场景分析,基本可以画出SpringBoot业务工程集成分库分表组件ShardingJdbc的架构设计图:

从上面业务系统架构设计图中可以看出,明细型业务数据(比如之前提的,清算系统的清分明细、云管平台的资源计量明细、订单系统的订单流水和云计算主机资源上报的性能数据明细)根据设置的数据分片路由规则先落库至sharding_db00~sharding_db04五个分库的对应分表中。然后,利用ShardingJdbc组件对分组汇总查询SQL的解析、改写、路由和归并结果的能力,分别对五个库中对应业务分表中的数据汇总累加求出每天/每月同一个用户下的资源计费累加值。最后,将这些“加工”后的业务数据批量插入至共享库share_db中,其他定时任务再从共享库中读取并生成最终形式的业务数据(比如,按月的账单、话单或者性能计量值)。其中,对于异常情况(明细流水异常、汇总异常和系统异常等),需要将其保存至共享库中的异常信息表中。另外,在明细落库之前还需要考虑幂等前置校验的问题。对于ShardingJdbc组件的分库分表路由规则可以参照下图:

从上面的分库分表路由规则图上可以看出,预先设置了通过客户id来路由定位至分库,通过用户id来路由定位至分表。这里,由原来的单库单表分成五个库的多分表(每个库中均有test_msg_queue_bill_record0~test_msg_queue_bill_record4五个分表,这里只是示例,在真实的业务场景下需要根据业务数据的总体容量来设定分库分表的规模,究竟是分5个库每个库5表,还是分10个库每个库10表来满足业务要求)。在一般情况下,如果执行的SQL为“select * from test_msg_queue_bill_record”就能借助ShardingJdbc组件来遍历查完5个分库中的test_msg_queue_bill_record0~4五个分表,无需我们自己来做分库分表的遍历查询了。

四、总结

本文先介绍了目前两种数据切分的主要方案(垂直切分和水平切分)及其优缺点。根据“流水”/“明细”类别的数据切分业务场景,阐述了业务系统设计之初选型分库分表组件的分析,并介绍了如何利用ShardingJdbc来解决“数据落库(Insert SQL)”、“数据分组汇总查询(Select+sum(xxx)+Group By SQL)”和“删除数据表(Delete SQL)”的几种基本业务场景。最后,给出业务系统集成ShardingJdbc组件后的架构设计方案。本文仅仅使用了Sharding-Jdbc组件的核心功能来解决了一部分基本的业务场景问题。ShardingJdbc组件还有其他很多高级的功能(比如读写分离、最大努力送达型的柔性事务、分片路由规则动态配置和数据库治理和ShardingProxy等,ps:听@亮哥说,ShardingJdbc 3.0起可以完美支持Batch Insert SQL,很是期待),限于篇幅将在后续的文章中结合对应的场景进行介绍。限于笔者的才疏学浅,对本文内容可能还有理解不到位的地方,如有阐述不合理之处还望留言一起探讨。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018.05.08 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
如何重现 DeepSeek 推理性能突破
DeepSeek-V3 在多个评测中展现出强大性能,成为当前最受关注的开源大模型之一。由于采用了大规模 MoE 架构,如何优化推理性能,是工程落地上的关键难点。DeepSeek 团队于 2 月相继开源了 DeepEP、DeepGEMM、FlashMLA、EPLB 等关键组件。在开源社区工作的基础上,我们在 RTP-LLM 上完成了优化工作,对齐了 DeepSeek 推理系统的性能。
深度学习与Python
2025/05/21
580
如何重现 DeepSeek 推理性能突破
Deepseek-V2技术报告解读!全网最细!
深度求索Deepseek近日发布了v2版本的模型,沿袭了1月发布的 Deepseek-MoE(混合专家模型)的技术路线,采用大量的小参数专家进行建模,同时在训练和推理上加入了更多的优化。沿袭了一贯的作风,Deepseek对模型(基座和对话对齐版本)进行了完全的mit协议开源,可以商用。对于算力不是那么充足的开发者,官方提供了API调用的方案,费用更是达到了全场最低!
zenRRan
2025/02/03
1.2K0
Deepseek-V2技术报告解读!全网最细!
PPT汇总:DeepSeek核心技术前世今生
因为本文是小白方式,尽可能讲解思路为主,所以技术上涉及到的公式部分不会细讲哦。公式部分如有时间会单开文章细细讲解。
腾讯云开发者
2025/03/06
5400
PPT汇总:DeepSeek核心技术前世今生
万字长文详解DeepSeek核心技术
在今年的春节期间,DeepSeek 火出了圈。凭借 DeepSeek-V3 与 DeepSeek-R1 的创新技术和卓越表现,DeepSeek 迅速成为了行业内外的焦点。不管是技术专家还是普通用户,都对 DeepSeek 赞不绝口。我们特别准备了这篇技术科普文章,期望无论你是不是技术同学,都能够读懂 DeepSeek。
腾讯云开发者
2025/02/18
1.9K0
万字长文详解DeepSeek核心技术
如何看待 DeepSeek 发布的 MoE 大模型 DeepSeek-V2?(从推理角度分析)
来源丨https://www.zhihu.com/question/655172528/answer/3491439374
BBuf
2025/02/03
2280
如何看待 DeepSeek 发布的 MoE 大模型 DeepSeek-V2?(从推理角度分析)
大模型KV Cache节省神器MLA学习笔记(包含推理时的矩阵吸收分析)
这里提一下,我维护的几个记录个人学习笔记以及社区中其它大佬们的优秀博客链接的仓库都获得了不少star,感谢读者们的认可,我也会继续在开源社区多做贡献。github主页:https://github.com/BBuf ,欢迎来踩
BBuf
2024/06/18
2.8K0
大模型KV Cache节省神器MLA学习笔记(包含推理时的矩阵吸收分析)
DeepSeek一天能赚多少钱?官方突然揭秘V3/R1推理系统,成本全透明
就在所有人以为 DeepSeek 预告的 5 天开源告一段落时,今天中午 12 点 11 分,官方 𝕏 帐号再次更新,宣告「开源周」还在继续。不过这第六天 DeepSeek 并没有开源新的软件库,而是介绍了 DeepSeek-V3/R1 的推理系统。
机器之心
2025/03/03
810
DeepSeek一天能赚多少钱?官方突然揭秘V3/R1推理系统,成本全透明
深度解析为什么Deepseek v3的成本这么低
这个问题其实可以从它发布的技术报告中窥见一二。 DeepSeek V3的训练总共才用了不到280万个GPU小时,而Llama 3 405B却用了3080万GP
算法一只狗
2025/01/05
4.1K0
深度解析为什么Deepseek v3的成本这么低
源2.0-M32大模型发布,MoE全新门控网络Attention Router值得关注
近期,一个新的MoE大模型“源2.0-M32”发布,它创新性地提出和采用了“基于注意力机制的门控网络”技术,构建包含32个专家(Expert)的混合专家模型(MoE),大幅提升了模型算力效率。
公众号-arXiv每日学术速递
2024/05/31
3790
源2.0-M32大模型发布,MoE全新门控网络Attention Router值得关注
AI智能体研发之路-模型篇(二):DeepSeek-V2-Chat 训练与推理实战
5月6日私募基金幻方发布DeepSeek-V2,千亿级模型,每百万Tokens仅需1元-2元。5月15日,字节发布白菜价的豆包大模型,5月21日阿里、百度相机大幅下调甚至免费开放自家商用模型接口,大模型价格战正式打响。而被誉为大模型价格屠夫的“DeepSeek-V2”到底是怎么个事儿,是否可以进行训练和推理,今天我们来展开讲一讲。
LDG_AGI
2024/08/13
1.5K0
AI智能体研发之路-模型篇(二):DeepSeek-V2-Chat 训练与推理实战
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B
最近马斯克就公开表示,因为苦于买不到足够的芯片,xAI只能推迟Gork 2的训练和发布。
新智元
2024/06/05
1060
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B
DeepSeek V3把训练大模型的成本给干下来了
一夜之间,DeepSeek突然之间炸场,各个大佬都在纷纷转发,而且发布即开源,直接用50多页的论文公布了其训练细节
算法一只狗
2024/12/29
4.9K0
DeepSeek V3把训练大模型的成本给干下来了
单个4090可推理,2000亿稀疏大模型「天工MoE」开源
在大模型浪潮中,训练和部署最先进的密集 LLM 在计算需求和相关成本上带来了巨大挑战,尤其是在数百亿或数千亿参数的规模上。为了应对这些挑战,稀疏模型,如专家混合模型(MoE),已经变得越来越重要。这些模型通过将计算分配给各种专门的子模型或「专家」,提供了一种经济上更可行的替代方案,有可能以极低的资源需求达到甚至超过密集型模型的性能。
机器之心
2024/06/04
6220
单个4090可推理,2000亿稀疏大模型「天工MoE」开源
万字长文解构DeepSeek V1/V2/V3/R1进化史:从算法革命到推理涌现!
在今年的春节期间,DeepSeek 火出了圈。凭借 DeepSeek-V3 与 DeepSeek-R1 的创新技术和卓越表现,DeepSeek 迅速成为了行业内外的焦点。不管是技术专家还是普通用户,都对 DeepSeek 赞不绝口。我们特别准备了这篇技术科普文章,期望无论你是不是技术同学,都能够读懂 DeepSeek。
腾讯云开发者
2025/02/27
7960
万字长文解构DeepSeek V1/V2/V3/R1进化史:从算法革命到推理涌现!
MoE 高效训练的 A/B 面:与魔鬼做交易,用「显存」换「性能」
MoE(Mixture of Experts),又称「混合专家」,本质是一种模块化的稀疏激活。怎么理解?
AI科技评论
2024/06/03
9430
MoE 高效训练的 A/B 面:与魔鬼做交易,用「显存」换「性能」
[DeepSeek]-DeepSeek技术解析:MoE架构实现与代码实战
以下是一篇结合DeepSeek技术解析与代码示例的技术文章,重点展示其核心算法实现与落地应用:
远方2.0
2025/03/15
4310
[DeepSeek]-DeepSeek技术解析:MoE架构实现与代码实战
深度求索开源国内首个 MoE 大模型 | DeepSeekMoE:在专家混合语言模型中实现终极专家专业化
在大语言模型时代,混合专家模型(MoE)是一种很有前途的架构,用于在扩展模型参数时管理计算成本。然而,传统的 MoE 架构(如 GShard)会激活 N 位专家中的 top-K 专家,但在确保专家专业化(即每位专家获取的知识不重叠且重点突出)方面面临挑战。作为回应,研究者提出了 DeepSeekMoE 架构,以实现终极的专家专业化。它涉及两个主要战略:
叶庭云
2024/05/25
1.9K0
深度求索开源国内首个 MoE 大模型 | DeepSeekMoE:在专家混合语言模型中实现终极专家专业化
DeepSeek开源周Day1:重磅发布FlashMLA,重新定义AI推理效率天花板
DeepSeek开源周Day1:重磅发布FlashMLA,重新定义AI推理效率天花板
没事学点编程小知识
2025/02/24
1380
[DeepSeek]解析DeepSeek的技术内核:混合专家架构如何重塑AI效能
在当今大型语言模型(LLM)竞争激烈的赛道上,中国AI企业DeepSeek凭借其独特的技术路线脱颖而出。其核心优势之一,便是对混合专家(Mixture of Experts,简称MoE)架构的创新应用,这一技术选择不仅重塑了AI模型的效能表现,更为行业带来了全新的思考方向。本文将深入解析DeepSeek如何通过MoE架构实现算力与性能的最优平衡。
远方2.0
2025/03/27
1650
[DeepSeek]解析DeepSeek的技术内核:混合专家架构如何重塑AI效能
深度解析DeepSeek核心机制:从模型架构到应用场景
随着大规模语言模型(LLM)的崛起,DeepSeek作为一款具备卓越性能的AI模型,在代码生成、文本理解、对话交互等多个领域展现了强大能力。本文将深入解析DeepSeek的核心机制,包括其模型架构、训练策略、推理优化及其在实际应用中的表现,并通过代码示例展示其强大之处。
江南清风起
2025/03/14
4680
深度解析DeepSeek核心机制:从模型架构到应用场景
推荐阅读
如何重现 DeepSeek 推理性能突破
580
Deepseek-V2技术报告解读!全网最细!
1.2K0
PPT汇总:DeepSeek核心技术前世今生
5400
万字长文详解DeepSeek核心技术
1.9K0
如何看待 DeepSeek 发布的 MoE 大模型 DeepSeek-V2?(从推理角度分析)
2280
大模型KV Cache节省神器MLA学习笔记(包含推理时的矩阵吸收分析)
2.8K0
DeepSeek一天能赚多少钱?官方突然揭秘V3/R1推理系统,成本全透明
810
深度解析为什么Deepseek v3的成本这么低
4.1K0
源2.0-M32大模型发布,MoE全新门控网络Attention Router值得关注
3790
AI智能体研发之路-模型篇(二):DeepSeek-V2-Chat 训练与推理实战
1.5K0
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B
1060
DeepSeek V3把训练大模型的成本给干下来了
4.9K0
单个4090可推理,2000亿稀疏大模型「天工MoE」开源
6220
万字长文解构DeepSeek V1/V2/V3/R1进化史:从算法革命到推理涌现!
7960
MoE 高效训练的 A/B 面:与魔鬼做交易,用「显存」换「性能」
9430
[DeepSeek]-DeepSeek技术解析:MoE架构实现与代码实战
4310
深度求索开源国内首个 MoE 大模型 | DeepSeekMoE:在专家混合语言模型中实现终极专家专业化
1.9K0
DeepSeek开源周Day1:重磅发布FlashMLA,重新定义AI推理效率天花板
1380
[DeepSeek]解析DeepSeek的技术内核:混合专家架构如何重塑AI效能
1650
深度解析DeepSeek核心机制:从模型架构到应用场景
4680
相关推荐
如何重现 DeepSeek 推理性能突破
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档