DeepSeek上架!
轻松搞定「开发者」和「企业级」应用

腾讯云震撼上架 DeepSeek 系列模型,限免体验,一键部署即可开启智能之旅。

DeepSeek上架!轻松搞定
「开发者」和「企业级」应用

一键部署+限免体验 腾讯云上架DeepSeek系列模型

基于 IaaS 部署 DeepSeek-R1 模型

腾讯云

  • 高性能应用服务 HAI 部署
  • GPU 云服务器部署
适用人群

个人 或 中小企业
需要自主部署但资源有限
需要推理加速、支持并发的用户

部署方案
  • HAI 已提供 DeepSeek-R1 模型预装环境,用户可在 HAI 中快速启动,进行测试并接入业务。用户单击实例任意位置进入实例的详情页面,推荐通过OpenWebUI 或 AnythingLLM 可视化界面(GUI)使用DeepSeek - R1 模型,也可以通过终端连接命令行(Terminal)或接口(API)使用。

部署时长及费用

最佳实践

最佳实践

真实案例分享,解锁DeepSeek的多元应用场景。
HAI上使用DeepSeek+RAG实现私人知识库
高效解决大模型“幻觉问题”,打造安全可靠的知识管理方案。
基于HAI搭建DeepSeek-R1,创意化生成海报和游戏
零代码门槛,快速实现创意设计与互动游戏开发。
腾讯云HAI+DeepSeek:短视频脚本与营销文案的AI创意脚本
告别创意瓶颈,用AI解锁内容创作新姿势!

产品推荐

基于 PaaS 部署 DeepSeek-R1 模型

TI平台,提供专属算力、支持全系DS模型、0代码模型部署,模型对话体验、多机分布式部署、私有API自动生成。
适用人群
  • 中小企业或者大企业
  • 需要自主部署但资源有限
  • 需要推理加速、支持并发的用户
部署方案
本方案无须编写代码,可一键部署 DeepSeek 系列模型。在部署V3或R1模型时,如仅需短时体验,对并发/上下文窗口要求不高,可使用单节点部署,部署方式请选择标准部署;其他情况下更推荐多节点部署,部署方式请选择多机分布式部署,节点数至少配置为2个。在部署 1.5B 至 70B 的 DeepSeek 蒸馏版模型时,仅需单节点,部署方式请选择标准部署。
部署时长及费用
  • 部署时长:3分钟
隐藏文案
预计费用:按量计费模式下,TI 平台软件订阅费按天结算,具体以账单为准。

产品推荐

DeepSeek-V3
是在14.8万亿高质量token上完成预训练的强大混合专家 (MoE) 语言模型,拥有6710亿参数。在知识问答、内容生成、智能客服等领域表现出色。
DeepSeek-R1-Distill-Llama-8B
在MATH-500上达到了89.1%的准确率,在AIME2024上达到了50.4%的通过率,在CodeForces上获得了1205的评分,展示了较强的数学和编程能力。
DeepSeek-R1-Distill-Qwen-14B
MATH-500上达到了93.9%的准确率,在AIME2024上达到了69.7%的通过率,在CodeForces上获得了1481的评分,显示出在数学和编程领域的强大实力。
DeepSeek-R1-Distill-Qwen-32B
在AIME 2024、MATH-500、GPQA Diamond等多个基准测试中都取得了优异成绩,其中在MATH-500上达到了94.3%的准确率,展现出强大的数学推理能力。
DeepSeek-R1-Distill-Llama-70B
在AIME 2024、MATH-500、GPQA Diamond 等多个基准测试中都取得了优异的成绩,在数学、编程和推理等多个领域展现出强大的性能。
混元大模型 Hunyuan-Large
混元大模型是腾讯自研的千亿级大模型,可应用于通用行业的对话、问答、文本生成等领域,在垂直行业场景仅需少量自训练数据量,便可达到很好的训练效果。

通过 SaaS 体验 DeepSeek-R1 模型

  • cnb.cool
    零帧起手,无需下载
  • Cloud Studio
    自带知识库,免费体验
  • TAPD
    NEW
    智能研发,免费开通
产品介绍 
  • 基于 Docker 生态的开源社区,可快速创建开发环境。
体验方式
  • Fork 相关代码仓库,在指定分支启动「云原生开发」,输入简单命令即可与DeepSeek互动。
  • 支持模型范围:DeepSeek 1.5b、7b、8b、14b、32b、70b、671b
  • 免费额度:1600核时/月,相当于一台 8 核 16G 机器,每天使用8小时,连续使用25天。
DeepSeek API 接口
公共 API 调用,0部署,三步即可上线,稳定、安全、易用。

应用场景:知识引擎结合联网搜索、私域知识,搭建专属应用

  • 智能客服
  • 企业知识库问答助手
  • 车载语音助手
智能客服
  • 基于腾讯云行业大模型,通过知识引擎,提供垂直领域的专业化智能客服能力。
  • 助力企业及开发者打造场景丰富、功能完善的智能客服解决方案,实现知识生产效率、问题覆盖率、回答准确率跨越式提升。

应用场景:知识引擎结合联网搜索、私域知识,搭建专属应用

使用知识引擎创建DeepSeek联网应用
使用 腾讯云大模型知识引擎平台,您可快速创建基于 DeepSeek 满血版(671B全尺寸模型),且支持联网搜索的大模型应用。
使用知识引擎创建DeepSeek知识库问答应用
使用 腾讯云大模型知识引擎平台,您可快速创建基于 DeepSeek 满血版(671B全尺寸模型) + RAG(检索增强生成)的大模型知识问答应用。
如您有大模型知识引擎+DeepSeek API的需求,或需要获得更多支持,请联系我们。
如您有大模型知识引擎+DeepSeek API的需求,或需要获得更多支持,请联系我们。>>

应用场景:  使用向量数据库 / 腾讯云ES,构建高质量国产RAG应用

  • DeepSeek+向量数据库
    向量索引
  • DeepSeek+腾讯云ES
    NEW
    全文索引+向量索引的混合搜索
方案介绍
腾讯云向量数据库作为RAG应用中的核心组件,提供独特的「AI套件」功能,用户仅需上传原始文档即可快速构建知识库,并结合Deepseek模型搭建高质量RAG应用,如:企业内部知识库、内外部智能客服、代码助手… 
产品优势
  • 「首家」权威认证:国内「首家」获中国信通院认证的企业级自研分布式数据库。
  • 内部多年打磨:源自内部OLAMA向量检索引擎,稳定运行于腾讯内部60+个核心业务线,每日支撑超过8500亿次向量检索请求。
  • 高性能、低成本:性能领先行业平均水平2倍以上,单QPS成本降低75%,极具性价比。
  • 加速业务落地:AI套件提供一站式文档检索解决方案,可快速搭建高质量RAG应用。
欢迎进群
DeepSeek 部署交流群
用腾讯云部署模型,进群交流最in玩法!我们期待您的建议与反馈。
DeepSeek 部署交流群