部署DeepSeek模型,进群交流最in玩法!
立即加群
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >扣子Coze如何接入DeepSeek-R1节点?

扣子Coze如何接入DeepSeek-R1节点?

作者头像
陈宇明
发布于 2025-02-26 13:47:43
发布于 2025-02-26 13:47:43
22002
代码可运行
举报
文章被收录于专栏:设计模式设计模式
运行总次数:2
代码可运行

前言

DeepSeek- R1已经火爆全球了,详细可见《DeepSeek火爆原因,使用方法及接入API全解析》那么在扣子Coze如何拥有DeepSeek- R1?我们可以通过自定义插件来接入。

如何自定义插件?

首先回到扣子空间主页,选择「资源库」然后点击右上角「+资源」选择「插件」。

输入名称(deepseek)、描述(deepseek调用)、选择(云侧插件 - 在 Coze IDE 中创建)。

在进入插件详情页创建工具,输入工具名称和工具介绍。

创建完成后,前往API文档地址:

https://api-docs.deepseek.com/zh-cn/guides/reasoning_model

请求参数

  • 密钥(APIKey)
  • 模型编码(model)
  • 问题(messages)

返回参数

  • 思维链内容(reasoning_content
  • 最终回答(content

我们先来整体了解下自定义插件的页面功能区域,从左到右

  • 第一个区域:
    • 工具列表:一个插件里面可以有多个方法
    • 依赖包:在编码时可以用多个第三方依赖包
  • 第二个区域:
    • 代码:实现插件的代码内容
    • 元数据:用于配置介绍和代码输入和输入的数据结构
  • 第三个区域:
    • 输入:输入参数后点击「运行」即可执行代码
    • 输出:代码执行后的输出结果会在输出区域

然后开始动手是现实下DeepSeek推理模型的接入

  1. 切换到元数据添加输入参数和输出参数
  1. 找到左下角依赖包添加输入openai查找到第一个选中添加
  1. 编写调用代码
代码语言:javascript
代码运行次数:2
运行
AI代码解释
复制
// 引用依赖包
import OpenAI from "openai";
export async function handler({ input, logger }: Args<Input>): Promise<Output> {
  // 定义请求地址
  const API_URL = 'https://api.deepseek.com';
  // 定义密钥
  const API_KEY = input.key;
  // 定义问题
  const COMMAND = input.command;
  // 构建初始化参数
  const openai = new OpenAI({
    baseURL: 'https://api.deepseek.com',
    apiKey: API_KEY
  });
  // 发送请求
  const completion = await openai.chat.completions.create({
    messages: [{ role: "user", content: COMMAND }],
    model: "deepseek-reasoner",
  });
  console.log(completion)
  // 返回参数
  return{
    data:{
        'reasoning_content':completion.choices[0].message.reasoning_content,
        'content':completion.choices[0].message.content
        }
      }
}

  1. 测试代码

在测试之前我们先要获取密钥(key),如何获取呢?

进入DeepSeek官网 https://www.deepseek.com/

注册并登录账户,进入工作后台

https://platform.deepseek.com/usage

选择API菜单,创建API Keys,并将其复制保存。

获取到key之后输入参数然后进行「运行」

  1. 运行后结果

完整结果:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
{
        "data": {
                "content": "9.9比9.11大。\n\n**分析过程:**\n1. **整数部分相同**:两数的整数部分均为9,故需进一步比较小数部分。\n2. **对齐小数位数**:将9.9补位为9.90,与9.11的小数部分对齐。\n3. **逐位比较小数**:\n   - **十分位**:9.90的十分位是**9**,9.11的十分位是**1**。因9 > 1,无需再比较后续位数。\n4. **结论**:9.90(即9.9)的小数部分更大,因此**9.9 > 9.11**。\n\n**总结**:通过补齐小数位数并逐位比较,可以明确得出9.9更大。",
                "reasoning_content": "嗯,用户问的是9.11和9.9哪个更大。看起来这个问题是关于比较两个小数的大小的。首先,我需要确认用户指的是不是十进制数,也就是常见的数字比较。因为有时候可能会有误解,比如日期或者其他格式,但在这里应该是纯数字比较。\n\n首先,我应该先分别分析这两个数的结构。9.11和9.9都是小数,整数部分都是9,所以需要比较小数部分的大小。小数部分的比较需要将它们的位数对齐,这样才能准确比较每一位上的数字。\n\n对于9.9,可以写成9.90,这样小数部分就有两位,和9.11对齐。这样的话,比较的就是0.90和0.11。显然,0.90比0.11大,所以9.90大于9.11,也就是9.9比9.11大。\n\n不过,可能用户会有疑问,比如为什么要把9.9写成9.90。这时候需要解释,当比较不同位数的小数时,补齐位数可以更清晰地比较每一位上的数字,避免误解。比如,0.9其实是0.90,而0.11是0.11,那么十位上的9比1大,所以整体更大。\n\n另外,可能需要确认用户是否理解小数点后的每一位代表的数值。例如,第一位是十分位,第二位是百分位,第三位是千分位,依此类推。因此,在比较9.11和9.9时,9.11的十分位是1,而9.9的十分位是9,所以即使9.11有更多的百分位数字,但十分位已经决定了它更小。\n\n不过,可能还有一种情况是用户误将9.11写成其他形式,比如时间或者版本号,但通常情况下,数字比较就是十进制数的比较。因此,这种情况下,结论应该是9.9更大。\n\n总结一下,比较的步骤是:\n\n1. 比较整数部分,如果整数部分不同,整数部分大的数更大。\n2. 如果整数部分相同,则比较小数部分,逐位比较,直到找到不同的位数。\n3. 在比较小数部分时,位数不够的可以补零,以便对齐位数。\n\n因此,9.9的整数部分和9.11一样都是9,小数部分9.9是0.90,而9.11是0.11,所以0.90更大,所以9.9大于9.11。\n\n当然,也可能用户会混淆小数点的位置,比如是否将9.11视为9年11个月,而9.9是9年9个月,这种情况下比较时间的话,11个月比9个月大,但这种情况不太常见,而且通常比较时间时不会用小数点来表示月份。所以应该还是数字本身的比较。\n\n另外,可能需要检查是否有其他可能的解释,比如版本号中的9.11和9.9,版本号的比较通常是从左到右逐部分比较,所以9.11可能比9.9大,因为11比9大,但这也取决于版本号的规范。不过通常版本号中的9.11会被视为9.11,而9.9是9.9,所以在版本号中,9.11可能比9.9大。但用户的问题没有说明是版本号,所以应该按照数值比较来处理。\n\n因此,在数值比较中,9.9大于9.11,而在版本号中可能相反。需要确认用户的意图,但通常如果是数学问题,答案应该是9.9更大。\n\n不过,我需要再次确认自己是否正确,避免犯低级错误。例如,将9.9视为9.90,而9.11是9.11,那么小数部分第一位是9和1,显然9比1大,所以9.90更大。是的,没错。所以结论正确。"
        }
}
  1. 测试没有问题后可以点击你右上角发布

发布成功之后我们就可以在工作流节点使用自定义插件

  1. 在工作流中选中插件
  1. 添加插件选中资源库工具进行自定义插件的添加
  1. 添加完成后输入参数运行看结果请求成功

最后

以后任何新的功能API都可以用这种方式去接入。每个模型都有它擅长的地方,只有我们深入了解了它们各自的能力,才能更好地驾驭这些大模型,让它们变成我们手中的利器。这样一来,面对难题时,我们就能游刃有余地找到最佳解决方案。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-01-29,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 码个蛋 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
DeepSeek API 接口——完整对接过程
我们知道从2月份开始DeepSeek就非常的流行,那么腾讯云提供了DeepSeek的接口,只需要正常对接就可以进行具体的访问,我们先来基础测试一下,但是需要提前看两篇文档的文章,后续我们加大逻辑,尝试一些好玩的逻辑。
红目香薰
2025/03/31
3820
DeepSeek API 接口——完整对接过程
新年开篇我们使用SK接入DeepSeek AI一篇简单的入门教程
然后提供下面我们的代码实现,利用OpenAI的接口然后自定义Url的接口地址,就可以了,但是目前还属于预览所以需要在文件加上#pragma warning disable SKEXP0010忽略这个警告,然后记得填写你在DeepSeek中获取的密钥即可,然后跑起来我们的程序。
沙漠尽头的狼
2025/02/05
2160
新年开篇我们使用SK接入DeepSeek AI一篇简单的入门教程
【2025重磅发布】DeepSeek-R1正式登场:性能比肩OpenAI o1,开源全栈生态+MIT开源协议 | 推理模型API深度解析
2025年1月20日,人工智能领域迎来里程碑式突破!深度求索(DeepSeek)正式发布新一代推理大模型DeepSeek-R1,不仅实现与OpenAI最新o1正式版的性能对标,更以全栈开放的生态布局引发行业震动。作为首个遵循MIT License开源协议的高性能推理模型,R1的发布将如何重构AI开发者的技术生态?其独创的"思维链API接口"又会给企业级应用带来哪些革新?
猫头虎
2025/01/24
1.5K0
【2025重磅发布】DeepSeek-R1正式登场:性能比肩OpenAI o1,开源全栈生态+MIT开源协议 | 推理模型API深度解析
13个DeepSeek官方提示词完整版
为方便大家随时查阅,岳哥特地帮大家整理成了PDF电子书,有需要的小伙伴,可在公众号后台回复:DeepSeek提示词
SQL数据库开发
2025/02/28
8310
13个DeepSeek官方提示词完整版
满血性能:腾讯云知识引擎原子能力接口实战X DeepSeek
这篇文章主要针对知识引擎原子能力这款产品的接口进行实测,前段时间写了几篇腾讯云相关产品部署 以及使用DeepSeek的相关文章,当然感兴趣的话也可以去阅读一下。当然这篇文章你也能本地使用,这里就用到了腾讯云的另外一款产品Cloud Studio,这段时间电脑正在维修,所以就用IPad写文了。
VyrnSynx
2025/02/07
7281
DeepSeek火爆出圈:使用方法及接入API全解析
国产AI大模型 DeepSeek 直接登顶多个国家 AppStore 免费App排行榜第一, 为什么DeepSeek会如此火爆?
陈宇明
2025/02/26
3290
DeepSeek火爆出圈:使用方法及接入API全解析
推理性能直逼o1,DeepSeek再次出手,重点:即将开源
昨晚,DeepSeek 上线了全新的推理模型 DeepSeek-R1-Lite-Preview ,直接冲击 OpenAI o1 保持了两个多月的大模型霸主地位。
机器之心
2025/02/14
1330
推理性能直逼o1,DeepSeek再次出手,重点:即将开源
DeepSeek-R1复现方案梳理
由huggingface组建,目前刚上线2周,发布了最新进展open-r1/update-1,在MATH-500任务上接近deepseek的指标,可以在open-r1/open-r1-eval-leaderboard查看指标的排行榜。
致Great
2025/02/13
3840
DeepSeek-R1复现方案梳理
浅谈DeepSeek与Lakehouse的跨越式融合
各位好,我是果诚,一个在互联网大厂摸爬滚打多年的数据从业者。最近 DeepSeek 这股风刮得太猛了,本周末的大事莫过于腾讯于 2025 年 2 月 15 日晚开始灰度测试在微信中接入 DeepSeek-R1 模型。作为一个月活将近 14 亿的国民级 app,表达一个开放的意愿就已经能够让股价火箭上天。而另一面,笔者的朋友圈也都很躁动,众多企业朋友们都在热情入局 DeepSeek。 今天想跟大家聊聊最近比较火的 DeepSeek 私有部署 + Lakehouse 方案。作为一名数据从业者,我想结合自己的经验,跟大家聊聊我的看法。
深度学习与Python
2025/02/28
860
浅谈DeepSeek与Lakehouse的跨越式融合
DeepSeek从云端模型部署到应用开发-01-社区内一键部署DeepSeek
DeepSeek现在流行度正盛,今年的机器学习就用他作为一个开端,开整。 本文是基于百度aistudio的在线课程《DeepSeek从云端模型部署到应用开发》。
用户2225445
2025/03/15
1000
DeepSeek从云端模型部署到应用开发-01-社区内一键部署DeepSeek
腾讯云大模型知识引擎 + DeepSeek:打造懒人专属的谷歌浏览器翻译插件
在这个信息爆炸的时代,互联网就像一个巨大的知识宝库,而我,一个对新知识充满渴望的探索者,每天都在这片海洋中遨游。我热爱阅读各种英文网站,从科技前沿到文化趣闻,从学术研究到生活小技巧,无一不让我着迷。然而,最近我遇到了一个小小的烦恼——英文翻译。
LucianaiB
2025/03/02
5003
腾讯云大模型知识引擎 + DeepSeek:打造懒人专属的谷歌浏览器翻译插件
【大模型部署实战】VLLM+OpenWebUI实现DeepSeek模型部署,文末有福利
vLLM(Very Large Language Model Serving)是由加州大学伯克利分校团队开发的高性能、低延迟大语言模型(LLM)推理和服务框架。其核心创新在于PagedAttention技术,通过将注意力键值(KV)缓存分页管理,显著提升显存利用率并降低碎片化问题,使吞吐量比传统框架(如Hugging Face Transformers)提升24倍。该框架支持连续批处理、动态显存分配和多GPU并行推理,能够高效处理8k+长上下文请求,并兼容OpenAI API接口,开发者可快速部署Hugging Face模型。通过集成FP8、AWQ等量化技术,vLLM在保证推理精度的同时大幅降低资源消耗,目前已成为企业级AI部署(如DeepSeek-R1 671B模型分布式集群)的首选方案。
AI浩
2025/03/17
3700
【大模型部署实战】VLLM+OpenWebUI实现DeepSeek模型部署,文末有福利
大语言模型简史:从Transformer(2017)到DeepSeek-R1(2025)的进化之路
2025年初,中国推出了具有开创性且高性价比的「大型语言模型」(Large Language Model — LLM)DeepSeek-R1,引发了AI的巨大变革。本文回顾了LLM的发展历程,起点是2017年革命性的Transformer架构,该架构通过「自注意力机制」(Self-Attention)彻底重塑了自然语言处理。到2018年,BERT和GPT等模型崭露头角,显著提升了上下文理解和文本生成能力。2020年,拥有1750亿参数的GPT-3展示了卓越的「少样本」和「零样本」学习能力。然而,「幻觉」问题 — —即生成内容与事实不符,甚至出现「一本正经地胡说八道」的现象 — — 成为了一个关键挑战。2022年,OpenAI通过开发「对话式」的ChatGPT应对这一问题,采用了「监督微调」(SFT)和「基于人类反馈的强化学习」(RLHF)。到2023年,像GPT-4这样的「多模态模型」整合了文本、图像和音频处理能力,使LLM能够以更接近人类的「听」、「说」、「看」能力。近期推出的OpenAI-o1和DeepSeek-R1「推理模型」(Reasoning Model)在复杂问题解决方面取得突破,赋予LLM更接近人类「系统2思维」的深度推理能力,标志着人工智能在模拟人类思维模式上迈出了重要一步。此外,DeepSeek-R1模型以其「超成本效益」和「开源」设计挑战了AI领域的传统规范,推动了先进LLL的普及,并促进了各行业的创新。
致Great
2025/02/17
7460
大语言模型简史:从Transformer(2017)到DeepSeek-R1(2025)的进化之路
Matlab中fprintf函数使用[通俗易懂]
formatSpec 输入中的 %4.2f 指定输出中每行的第一个值为浮点数,字段宽度为四位数,包括小数点后的两位数。formatSpec 输入中的 %8.3f 指定输出中每行的第二个值为浮点数,字段宽度为八位数,包括小数点后的三位数。\n 为新起一行的控制字符。
全栈程序员站长
2022/11/02
4.9K0
从o1-mini到DeepSeek-R1,万字长文带你读懂推理模型的历史与技术
自 OpenAI 发布 o1-mini 模型以来,推理模型就一直是 AI 社区的热门话题,而春节前面世的开放式推理模型 DeepSeek-R1 更是让推理模型的热度达到了前所未有的高峰。
机器之心
2025/02/25
1810
从o1-mini到DeepSeek-R1,万字长文带你读懂推理模型的历史与技术
HuggingFace 又出新教程啦!手把手教你构建DeepSeek-R1推理模型
LLM 在许多生成任务上表现出色。然而,直到最近,它们还在解决需要推理的复杂问题上举步维艰。例如,它们很难处理需要多步推理的谜题或数学问题。
致Great
2025/03/05
3190
HuggingFace 又出新教程啦!手把手教你构建DeepSeek-R1推理模型
LLM「想太多」有救了!高效推理让大模型思考过程更精简
有时候回答会绕好大一个圈子,推理过程冗长又复杂,虽能得出正确答案,但耗费了不少时间和计算资源。
新智元
2025/04/07
1420
LLM「想太多」有救了!高效推理让大模型思考过程更精简
DeepSeek从云端模型部署到应用开发-03-实战指南:从部署到RAG Agent
Ollama理论上不刚需显存,只需要有足够的内存(RAM),基础版环境刚好卡到门槛,但是为了优化使用体验,建议通过V100 16GB启动项目,而且每日运行项目就送8算力点!!!
用户2225445
2025/03/15
1170
DeepSeek从云端模型部署到应用开发-03-实战指南:从部署到RAG Agent
本地测试 DeepSeek R1 用于 RAG 与 Ollama 和 Kibana
最近大家都在讨论DeepSeek R1,这是中国幻方推出的新大型语言模型。新闻中充满了对这个具备链式推理能力且权重公开的LLM对行业影响的猜测。对那些好奇尝试这个新模型与 RAG 以及 Elasticsearch 向量数据库的功能的人来说,这里有一个快速教程,教你如何使用本地推理来使用 DeepSeek R1。在此过程中,我们将使用 Elastic 的 Playground 功能,并发现 Deepseek R1 对 RAG 的一些优缺点。
点火三周
2025/02/04
7521
本地测试 DeepSeek R1 用于 RAG 与 Ollama 和 Kibana
DeepSeek三大版本大揭秘:量化、蒸馏、满血,谁才是你的菜?
摘要:DeepSeek的量化版、蒸馏版和满血版在参数规模、性能表现和适用场景上各有特点。满血版拥有6710亿参数,推理能力强,适合高端科研和复杂任务;蒸馏版参数规模较小,适合资源受限环境,响应速度快;量化版通过量化技术进一步压缩模型大小,推理速度快,适合移动端和边缘设备。用户应根据需求、硬件资源和预算选择适合的版本。
正在走向自律
2025/02/26
4.9K0
DeepSeek三大版本大揭秘:量化、蒸馏、满血,谁才是你的菜?
推荐阅读
相关推荐
DeepSeek API 接口——完整对接过程
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验