Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >AI大模型开源与闭源

AI大模型开源与闭源

作者头像
机器学习AI算法工程
发布于 2024-07-04 05:32:05
发布于 2024-07-04 05:32:05
4420
举报
向AI转型的程序员都关注公众号 机器学习AI算法工程

首先我们还是对 大模型以及开源闭源进行一定的分析。

大模型是指具有大规模参数和复杂计算结构的机器学习模型。通常基于深度学习技术。这些模型在AI的发展中起到了至关重要的作用,尤其是在自然语言处理(NLP)、计算机视觉语音识别等领域。

以下是开源大模型和闭源大模型的基本简介。

开源大模型

开源大模型近年来在人工智能领域取得了显著的进展,许多开源大模型在学术研究、工业应用和社区创新中发挥了重要作用。以下是几个著名的开源大模型的介绍:

GPT-3(OpenAI)

GPT-3(Generative Pre-trained Transformer 3)是OpenAI发布的一个大规模预训练语言模型。尽管GPT-3本身不是完全开源的,但OpenAI提供了API,使得开发者可以访问和使用该模型。它是基于Transformer架构,拥有1750亿参数,是目前最大的语言模型之一。

特点

生成能力:GPT-3在生成自然语言文本方面表现出色,可以生成具有连贯性和上下文相关的段落。

多用途:GPT-3可以用于多种任务,如翻译、问答、摘要生成、对话系统等。

少量样本学习:GPT-3在少量样本情况下也能表现出良好的效果,这使得它在实际应用中非常灵活。

应用场景

企业应用:GPT-3通过OpenAI API帮助企业自动化内容生成、客户支持和市场营销文案。例如,自动生成产品描述、撰写营销邮件和创建社交媒体内容。

开发工具:开发者可以利用GPT-3 API在应用中集成智能助手、对话系统和自动化客服机器人,提高用户体验和效率。

BERT(Google)

简介

BERT(Bidirectional Encoder Representations from Transformers)是Google发布的一个开创性语言模型。它的出现引领了自然语言处理领域的重大突破。BERT的源代码和预训练模型都在GitHub上开源。

特点

双向编码:BERT使用双向Transformer进行编码,这使得模型在理解句子上下文时更加准确。

预训练和微调:BERT通过在大规模语料上预训练,然后在特定任务上微调,从而实现了卓越的性能。

广泛应用:BERT在许多自然语言处理任务中表现出色,如问答、命名实体识别、情感分析等。

应用场景

自然语言理解:BERT被广泛应用于自然语言处理任务,如情感分析、命名实体识别和文本分类。例如,分析社交媒体上的情感趋势、识别新闻中的关键实体和自动分类客户反馈。

搜索引擎优化:BERT改进搜索引擎的查询理解能力,提高搜索结果的相关性和准确性。它被用于Google搜索引擎中,帮助理解复杂的搜索查询并提供更相关的结果。

T5(Google)

简介

T5(Text-To-Text Transfer Transformer)是Google提出的一种统一的文本到文本框架模型。T5的设计理念是将所有的自然语言处理任务转化为文本到文本的形式。T5的代码和预训练模型也是开源的。

特点

统一框架:T5将不同的任务(如翻译、摘要、分类)统一为文本生成问题,这使得模型架构更加简洁。

大规模预训练:T5在大规模文本数据上进行了预训练,具有强大的生成和理解能力。

灵活性:由于其统一的框架,T5可以很容易地适应各种自然语言处理任务。

应用场景

翻译和摘要:T5在翻译和文本摘要生成方面表现出色,应用于自动翻译文档、生成新闻摘要和提取关键信息。例如,帮助企业自动翻译技术文档,生成简洁的新闻摘要,便于快速阅读。

问答系统:T5被用于构建智能问答系统,如企业内部知识库问答、在线客服机器人和教育领域的智能辅导工具,提供准确和高效的问答服务。

GPT-Neo和GPT-J(EleutherAI)

简介

GPT-Neo和GPT-J是由EleutherAI开发的开源大规模语言模型,旨在提供与GPT-3相当的开源替代品。GPT-Neo和GPT-J的源代码和预训练模型都公开发布,供社区使用和改进。

特点

高可用性:作为开源项目,任何人都可以访问和使用这些模型。

大规模:GPT-J拥有60亿参数,是当前最大的开源语言模型之一。

社区驱动:EleutherAI的模型开发依赖于社区的贡献和合作,促进了快速的迭代和创新。

应用场景

教育和研究:GPT-Neo和GPT-J被广泛应用于教育和研究领域,帮助学生和研究人员生成报告、撰写论文和进行数据分析。例如,生成科研报告的初稿,提供论文写作辅助和自动化数据摘要。

内容创作:这些模型被用于自动化内容创作,如博客文章、故事创作和剧本写作,帮助创作者提高生产效率和创意表达。

BLOOM(BigScience)

简介

BLOOM(BigScience Large Open-science Open-access Multilingual Language Model)是由BigScience项目发布的一个大规模多语言模型。BLOOM的开发集中了来自全球研究者的合作力量。

特点

多语言支持:BLOOM支持数十种语言,具有强大的跨语言理解和生成能力。

社区合作:BLOOM的开发过程透明,依赖于全球研究社区的合作。

开源和开放访问:BLOOM的源代码和模型权重公开发布,供研究和应用使用。

应用场景

跨语言应用:BLOOM的多语言支持能力使其在跨语言翻译和多语言对话系统中具有广泛应用。例如,构建支持多语言的全球客服系统,自动翻译和本地化内容,促进国际交流和合作。

学术研究:BLOOM为学术研究提供了强大的工具,支持多语言语料库分析、跨文化研究和全球知识共享。例如,研究人员使用BLOOM分析多语言数据集,进行跨文化对比研究,推动全球化研究进展。

这些开源大模型在推动人工智能技术进步的同时,也为研究人员和开发者提供了丰富的资源和工具,使得更多的人能够参与到AI技术的创新和应用中。

优势

社区驱动的创新

开源项目可以吸引全球开发者和研究人员的参与,促进快速迭代和创新。

通过集体智慧,问题可以更快地被发现和解决。

透明性和可验证性

开源代码可以被任何人审查,从而提高了透明性和可信度。

用户可以对代码进行独立验证,确保没有隐藏的漏洞或后门。

教育和研究

开源项目为学术研究和教育提供了宝贵的资源,使得更多的人能够学习和使用先进的技术。

研究人员可以基于开源项目进行进一步的创新和实验。

成本效益

开源软件通常免费,降低了开发者和企业的进入门槛。

挑战

资源和资金

开源项目可能面临资金和资源不足的问题,特别是在需要大量计算资源的AI领域。

依赖社区贡献,项目的持续性和稳定性可能受到影响。

商业化困难

尽管可以通过服务和支持等方式商业化,但与直接销售软件许可证相比,开源项目的商业化模式可能更复杂。

闭源大模型

闭源大模型主要由一些大型科技公司开发和维护,虽然这些模型的代码和训练数据并未公开,但它们在各种应用场景中表现出了卓越的性能,并且通常通过API或商业化产品提供给用户。以下是几个著名的闭源大模型的介绍:

GPT-4(OpenAI)

简介

GPT-4 是OpenAI发布的最新一代大规模语言模型,继承了GPT-3的强大性能,但在很多方面进行了改进和增强。虽然模型本身是闭源的,但OpenAI通过API和合作伙伴关系提供了广泛的访问和应用。

特点

性能提升:相比GPT-3,GPT-4在自然语言理解和生成方面表现得更为优异。

多模态支持:GPT-4不仅支持文本,还可以处理图像等其他类型的数据(取决于具体版本)。

应用广泛:GPT-4在对话系统、内容生成、代码编写、翻译等多个领域都有出色表现。

应用场景

企业应用:GPT-4被用于增强客户服务、自动化文档生成、数据分析等。

开发工具:通过OpenAI API,开发者可以将GPT-4集成到各种应用中,例如智能助手和内容管理系统。

Bard(Google)

简介

Bard 是Google推出的高级对话AI模型,专注于提供自然流畅的对话体验。Bard整合了Google在自然语言处理和机器学习方面的最新进展,尽管模型和训练数据闭源,但通过Google的服务可以访问。

特点

上下文理解:Bard具备深度上下文理解能力,可以进行长时间连贯对话。

多轮对话:能够处理复杂的多轮对话,提供详细和相关的回答。

集成服务:与Google搜索、地图、日历等服务无缝集成,提供更为实用的对话体验。

应用场景

个人助理:Bard用于智能手机助手、智能音箱等设备,为用户提供日常帮助。

客户支持:帮助企业提升客户服务效率,提供快速、准确的自动化回复。

LaMDA(Google)

简介

LaMDA(Language Model for Dialogue Applications)是Google专为对话设计的大型语言模型,旨在提供更为自然和有意义的对话体验。尽管LaMDA是闭源的,但它在多个Google产品中得到了应用。

特点

对话优化:LaMDA专门为对话优化,具备理解和生成自然对话的能力。

上下文保持:能够在长时间对话中保持上下文一致性,使得对话更加流畅。

多领域知识:具备广泛的知识覆盖,可以处理各种话题的对话。

应用场景

对话系统:用于智能聊天机器人、虚拟助理等系统,提升用户互动体验。

客户服务:在企业客户服务中,提供自动化和智能化的对话解决方案。

Claude(Anthropic)

简介

Claude是由Anthropic公司开发的一种先进的对话AI模型,致力于提供安全且高度可控的对话体验。尽管Claude是闭源的,但它以其对安全性和伦理性的关注而著称

特点

安全性:Claude在设计上特别注重对话的安全和伦理问题,避免有害输出。

高可控性:提供了细粒度的控制选项,允许用户调整模型的行为和回答方式。

对话深度:具备处理复杂和深入对话的能力,提供详细和有帮助的回答。

应用场景

敏感环境:在需要高度安全和伦理考量的环境中使用,例如医疗咨询和法律咨询。

客户支持:用于提供安全且可靠的客户支持服务,提升用户信任度。

MUM(Google)

简介

MUM(Multitask Unified Model)是Google开发的一种多任务统一模型,旨在提供超越传统搜索体验的能力。MUM不仅处理文本,还可以理解和生成图像、视频等多种数据形式。

特点

多任务处理:MUM能够同时处理多种任务,如搜索、问答、翻译等。

多模态支持:支持文本、图像、视频等多种数据形式的理解和生成。

高度智能:具备深度理解能力,可以提供更为精确和相关的搜索结果。

应用场景

搜索引擎:提升搜索引擎的智能化水平,提供更为精确和多样化的搜索结果。

信息检索:在各种信息检索和数据分析任务中,提供强大的支持。

这些闭源大模型在各自的应用领域中展示了卓越的性能和广泛的应用前景,尽管它们的源代码和训练数据未公开,但通过商业化产品和服务,它们仍然为用户提供了强大的人工智能能力。

优势

资源充足:

闭源项目通常由公司资助,拥有充足的资金和资源进行长期开发和维护。

可以雇佣专业团队进行专注开发,保证产品质量和稳定性。

商业化路径明确:

闭源软件可以通过销售许可证、订阅服务等方式直接盈利,商业模式清晰。

数据安全和控制:

公司可以严格控制代码和数据的访问,确保安全性和隐私保护。

一致性和整合性:

由于开发由一个团队或公司负责,闭源软件在设计和实现上更容易保持一致性和整合性。

挑战

创新速度较慢:

闭源项目依赖于内部团队的创新速度,可能比不上开源社区的集体智慧和多样化的创新。

透明性不足:

由于代码不公开,用户无法审查和验证代码的安全性和可靠性。

成本较高:

闭源软件通常需要购买许可证或订阅,可能增加用户的成本。

开源大模型与闭源大模型,你更看好哪一方?

回到我们的主题。评价一个AI模型“好不好”“有没有发展”,首先就躲不开“开源”和“闭源”两条发展路径。对于这两条路径,实际上可以从数据隐私、商业应用和社区参与三个方向探讨。

数据隐私

开源大模型在数据隐私保护方面具有一定的优势。由于其代码公开,任何人都可以审查和验证模型的安全性和隐私保护措施。这种透明性有助于发现和修复潜在的安全漏洞,确保用户数据的安全。例如,BERT和T5等开源模型不仅提供了卓越的自然语言处理能力,还能让用户和开发者通过自主检查,确保没有隐藏的安全风险。

然而,闭源大模型则在数据隐私控制上更为严格。闭源模型通常由公司内部团队开发和维护,数据访问权限受到严格控制,能够更有效地保护用户隐私。例如,Google的LaMDA和OpenAI的GPT-4在商业应用中严格控制数据访问和使用,确保用户数据的安全性和隐私保护。

商业应用

在商业应用领域,闭源大模型往往具有更明确的商业化路径和资源优势。闭源项目通常由大型科技公司资助,拥有充足的资金和专业团队,能够提供高质量和稳定的服务。例如,OpenAI的GPT-4通过API提供广泛的商业应用,包括自动化文档生成和客户支持等,为企业带来显著的效率提升和成本降低。

另一方面,开源大模型在商业化上面临一些挑战。尽管开源模型通常是免费的,降低了开发者的进入门槛,但其商业化模式可能更复杂,主要依赖于服务和支持等增值业务。然而,开源模型也有其独特的优势,特别是在推动技术创新和降低初创企业的开发成本方面。例如,EleutherAI的GPT-Neo和GPT-J通过开源模式为中小企业和研究机构提供了强大的自然语言处理工具。

社区参与

开源大模型在社区参与和合作方面具有明显的优势。开源项目吸引了全球开发者和研究人员的广泛参与,促进了快速的迭代和创新。例如,Google的BERT和T5在开源社区的推动下,不断涌现出新的应用和改进版本。社区驱动的创新不仅能迅速发现和修复问题,还能在模型的基础上开发出更多元化的应用场景。开源模型的透明性和可访问性使得更多人能够学习和使用先进的技术,推动整个行业的进步。

相比之下,闭源大模型在社区参与方面的局限性较大。由于代码和数据不公开,外部开发者和研究人员难以直接参与模型的改进和创新。这种封闭性虽然有助于控制质量和保护知识产权,但也可能限制了模型的快速发展和应用多样性。然而,闭源模型的开发团队通常具备更高的专业水平和资源,能够在特定领域提供高质量的商业解决方案。例如,Google的LaMDA和Bard在对话系统中的应用体现了其在特定应用场景下的卓越性能。

结论

从长期发展的角度来看,我更看好开源大模型。开源项目是为了分享这个世界,那么就可能必然会舍弃掉资源的保密性和私人性,但其在创新速度、透明性、教育和社区参与方面的优势非常明显,我认为瑕不掩瑜。因为当一个开源的项目足够大足够精彩,那么或许你在别人眼中就不只是技术分享者,更多是一个为计算机行业拥有显著贡献的创造者。

此外,许多成功的商业公司也在探索开源与闭源结合的模式,通过开放核心技术并提供增值服务来实现商业成功。这实际上也会促进公司之间的合作,从而促进商业化和行业内的发展。

然而,这并不意味着闭源大模型没有前景。对于某些需要高度安全性和控制的应用场景,闭源模式仍然是必要的。因此,具体选择哪种路径,还需要根据具体的应用场景和需求进行权衡。

总的来说,开源大模型和闭源大模型各有其优势和挑战。在数据隐私、商业应用和社区参与方面,它们展现出不同的特点和潜力。选择更看好哪一种路径,取决于你所重视的因素和目标。无论是开源还是闭源,推动AI技术的发展和应用,共同促进智能时代的到来,是我们作为掌舵者共同的目标。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-06-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习AI算法工程 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
开源大模型与闭源大模型
开源大模型是指开发者将模型的代码和训练数据公开,使得任何人都可以访问、修改和使用这些资源。代表性的开源大模型包括Hugging Face的Transformers库和Meta的LLaMA(Large Language Model Meta AI)。
用户11305458
2024/10/09
7010
CloudBluePrint-Chapter 1.9 : 云上应用技术架构-拥抱生成式AI
在科技的快速发展中,生成式AI(Generative AI)逐渐成为创新的重要驱动力。它通过学习大量数据来生成新内容,应用广泛,包括文本生成、图像生成、音乐创作和代码生成。各大云厂商都提供了丰富的AI服务,使企业和开发者能够更方便地构建和部署生成式AI应用。本文将详细对比AWS、GCP、Azure、阿里云和腾讯云在生成式AI方面的云服务。
行者深蓝
2024/05/31
2980
开源语言大模型演进史:早期革新
尽管业内最初强调专有模型,但随着GPT-3等流行语言模型的发布,LLM研究社区开始发布相关开源变体。最早的开源语言模型在性能上落后于最佳的专有模型,不过,它们为提升LLM的研究透明度奠定了基础,并促进了后续LLaMA-2等强大模型的开发。
用户9861443
2023/11/01
6120
开源语言大模型演进史:早期革新
2022 年中回顾|大模型技术最新进展
本文回顾了过去 12 个月以来,国内外大模型的发展趋势,包括百花齐放的国产大模型、新秀不断涌现的多模态模型、萌芽中的通用能力模型等等,并对大模型新应用、预训练框架等方面的进展进行了总结。
澜舟科技
2022/07/25
3.4K1
2022 年中回顾|大模型技术最新进展
常见大语言模型解析:技术细节、应用与挑战
文章链接:https://cloud.tencent.com/developer/article/2467252
小说男主
2024/11/21
2530
常见大语言模型解析:技术细节、应用与挑战
AI 大模型开源之困:垄断、围墙与算力之殇
从新兴技术转变为AI基础设施,大模型开源很重要,但也很难。 作者|李梅 编辑|陈彩娴 2020年6月,OpenAI发布GPT-3,其千亿参数的规模和惊人的语言处理能力曾给国内AI界带来极大的震动。但由于GPT-3未对国内开放,一批提供文本生成服务的商业公司在海外诞生时,我们只能望洋兴叹。 今年8月,伦敦的开源公司Stability AI发布文生图模型Stable Diffusion,并免费开源了模型的权重和代码,这迅速引发了AI作画应用在全球范围内的爆炸式增长。 可以说,今年下半年的AIGC热潮,开源起到了
AI科技评论
2023/04/12
5470
AI 大模型开源之困:垄断、围墙与算力之殇
DeepSeek 的开源优势:为什么选择它而不是其他闭源模型?
开源 是 DeepSeek 最显著的优势之一。与闭源模型不同,DeepSeek 的代码完全公开,开发者可以根据自己的需求进行定制和优化。这种灵活性不仅允许开发者根据具体应用场景调整模型,还促进了社区的创新和协作。例如,开发者可以在 DeepSeek 的基础上开发专用模型,如 DeepSeek Coder(用于代码生成和补全)或 DeepSeek Translator(用于多语言翻译),从而满足特定领域的复杂需求。
用户11396661
2025/02/17
6420
开源大模型与闭源大模型,你更看好哪一方?
简介:评价一个AI模型“好不好”“有没有发展”,首先就躲不掉“开源”和“闭源”两条发展路径。对于这两条路径,你更看好哪一种呢?
正在走向自律
2024/12/18
3590
开源大模型与闭源大模型,你更看好哪一方?
介绍10款ChatGPT替代产品
ChatGPT 引领着聊天 AI 的世界,许多人已经开始在日常生活中使用它。OpenAI 的 GPT-3 语言模型是聊天机器人的基础,它使得用户能够通过回答问题与 AI 进行交互。
架构狂人
2023/08/16
2.8K0
介绍10款ChatGPT替代产品
开源大型语言模型(llm)总结
大型语言模型(LLM)是人工智能领域中的一个重要研究方向,在ChatGPT之后,它经历了快速的发展。这些发展主要涉及以下几个方面:
deephub
2023/08/30
5280
开源大型语言模型(llm)总结
开源框架与闭源框架的深度解析
开源框架与闭源框架的本质区别在于代码的开放性与控制权。开源框架(如Meta的Llama 3.1、DeepSeek-R1)通过公开源代码、模型参数及训练数据,允许开发者自由修改和商业化使用。这种开放模式使得Meta的Llama 3.1在22个月内将性能差距从闭源模型的22个月缩短至16个月,部分任务甚至接近GPT-4水平。而闭源框架(如OpenAI的GPT系列)则通过代码封闭保护核心技术,以付费API或企业解决方案盈利,其研发依赖内部专业团队集中投入资源,例如OpenAI的GPT-4在复杂推理任务中仍保持领先。
用户2755790
2025/04/13
1790
📝《开源vs闭源:大模型时代的技术伦理之争》
2023年全球大模型参数量突破万亿级,GPT-4、LLaMA等模型推动AI进入“工业化生产”阶段。开源社区(如Hugging Face)与闭源巨头(如OpenAI、Google)形成两大阵营:
Jimaks
2025/03/24
4441
大模型评测指南:从理论到实践
大模型能够协助我们完成各种任务,改变我们的生产和生活的方式,提高生产力,为我们带来便利,但同时使用过程中也伴随着诸多风险与挑战,如泄露隐私数据,生成带有偏见、暴力、歧视、违反基本道德和法律法规的内容,传播虚假信息等。
测试开发技术
2025/06/25
3530
大模型评测指南:从理论到实践
大模型发展历程:技术演进与趋势洞察
本文系统梳理了 2017 年至 2025 年间,大语言模型(LLM)领域的关键进展、技术演进和代表模型。从 Transformer 架构的革命性突破,到 GPT-3 的规模化成功,再到多模态模型的兴起,大模型技术正在重塑人工智能产业格局。
磊叔的技术博客
2025/06/08
1.3K0
大模型发展历程:技术演进与趋势洞察
Transformers回顾 :从BERT到GPT4
人工智能已成为近年来最受关注的话题之一,由于神经网络的发展,曾经被认为纯粹是科幻小说中的服务现在正在成为现实。从对话代理到媒体内容生成,人工智能正在改变我们与技术互动的方式。特别是机器学习 (ML) 模型在自然语言处理 (NLP) 领域取得了重大进展。一个关键的突破是引入了“自注意力”和用于序列处理的Transformers架构,这使得之前主导该领域的几个关键问题得以解决。
deephub
2023/08/28
4600
Transformers回顾 :从BERT到GPT4
《深度剖析:开源与闭源模型,AI舞台上的不同角色》
在人工智能蓬勃发展的当下,模型的选择如同为一场战役挑选合适的武器,至关重要。开源模型与闭源模型作为AI领域的两大阵营,在性能和应用场景上展现出显著差异,深刻影响着开发者、企业以及整个行业的走向。
程序员阿伟
2025/05/21
1860
Hugging Face最受欢迎15大AI机构出炉!清华第五,OpenAI第十,冠军竟是它?
2022年AI大爆炸的两个标志性事件,一个是ChatGPT,一个就是Stable Diffusion。
新智元
2023/11/24
4440
Hugging Face最受欢迎15大AI机构出炉!清华第五,OpenAI第十,冠军竟是它?
用GPT4进行指令微调
代码:https://instruction-tuning-with-gpt-4.github.io/
西西嘛呦
2023/04/08
1.5K0
用GPT4进行指令微调
他们开源了GitHub上最火的双语对话模型,还说AI胡说八道不需要被纠正
衡宇 发自 凹非寺 量子位 | 公众号 QbitAI 国产对话机器人ChatGLM,和GPT-4诞生于同一天。 由智谱AI和清华大学KEG实验室联合推出,开启alpha内测版。 这个巧合让智谱AI创始人兼CEO张鹏有一种说不清的复杂感觉。但看到技术被OpenAI做到这么牛,这名被AI新进展轰炸麻了的技术老兵又猛然亢奋起来。 特别是在追GPT-4发布会直播时,他看一下屏幕里的画面,就埋头笑一阵,再看一段,又咧嘴笑一会儿。 从成立起,张鹏带队的智谱AI就是大模型领域的一员,定下“让机器像人一样思考”的愿景。
量子位
2023/04/06
6610
他们开源了GitHub上最火的双语对话模型,还说AI胡说八道不需要被纠正
一文读懂 LLaMa 2 开源 LLM
自从 Transformers 问世以来,LLM (大型语言模型)以及更广泛的生成式人工智能技术呈现出爆炸式的增长趋势。同时,随着 ChatGPT 等免费版本的推出,世界各地的企业和科技爱好者开始意识到生成式人工智能的巨大潜力。
Luga Lee
2023/12/04
2K1
一文读懂 LLaMa 2 开源 LLM
推荐阅读
相关推荐
开源大模型与闭源大模型
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档