Loading [MathJax]/jax/output/CommonHTML/config.js
部署DeepSeek模型,进群交流最in玩法!
立即加群
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >小白就可以用deepseek-r1+dify结合联网搜索搭建AI产品

小白就可以用deepseek-r1+dify结合联网搜索搭建AI产品

作者头像
AIGC新知
发布于 2025-02-18 14:27:58
发布于 2025-02-18 14:27:58
97200
代码可运行
举报
文章被收录于专栏:AIGC新知AIGC新知
运行总次数:0
代码可运行

凌晨的时候,使用deepseek深度思考+联网搜索做了一个AI产品卡片,展示效果很惊艳,如下是做了几个关于AI教育智能硬件产品的特性图,放几个看看效果

向左滑动查看更多

我发到一个AI群里,立马就有大佬问这个怎么做的,

这篇文章借助这个机会复现一下。

我们需要深度思考+联网搜索的能力,需要根据关键词去检索到详细的信息源,因此联网搜索必不可少,然后根据如上搜索整合的信息让deepseek自适应地根据内容进行排版,选择不同地风格,呈现不同地样式。

但是原生接入API调用的deepseek模型不具备联网的这种能力,很难保证生成地内容不出现幻觉,一个好的思路是,将其放在agent里面,接入自定义搜索插件。

执行任务时,可以根据任务调度搜索插件检索信息,配合deepseek-r1模型执行任务。

接下来需要使用deepseek-r1的API,但是官网的已经无法调用。

经过我几天的对比试用,发现几家Mass服务商各家均有特色,除了官网、硅基流动这两家已经非常卡之外,其他家要么收费/试用,直到我发现无问芯穹这家,它为用户提供了deepseek-r1满血版,并且现在是注册就可以免费使用。

并且速率对比下来,已经非常可以了。甚至不需要好友邀请即可免费用 Token!

大模型服务平台在线体验:https://cloud.infini-ai.com/genstudio/model

点开deepseek-r1模型的卡片,进入到控制台,看到下方有默认接口,这里只需要获取两个关键信息即可。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
curl --request POST \
  --url https://cloud.infini-ai.com/maas/v1/chat/completions \
  --header "Authorization: Bearer $API_KEY" \
  --header "Content-Type: application/json" \
  --data '{
      "model": "deepseek-r1",
      "messages": [
        {"role": "user", "content":"你是谁"}
      ]
    }'

下面就一步一步带大家来实现产品卡片的制作。

step1:获取api key。

如上为默认接口的代码,只需要获取到如下关键信息即可。

model: deepseek-r1

API endpoint URL:https://cloud.infini-ai.com/maas/v1/chat/completions

API KEY:如sk-xxx。从官网进行创建。

step2:dify里增加模型供应商

打开云端的dify,或者从下面链接进去:

入口:https://cloud.dify.ai/apps

接下来就是需要将无问芯穹的deepseek-r1模型API接入到dify中去,因为它是兼容openai接口协议的。

我们只需要在设置->模型供应商里面添加对应的参数即可。

需要填写的参数如下,需要注意的是,上下文和最大token长度尽可能大一点,不然后面会出现截断的问题。

model: deepseek-r1

API endpoint URL:https://cloud.infini-ai.com/maas/v1/chat/completions

API KEY:如ak-xxx。从官网进行创建。

接入之后就可以在dify中构建我们的AI应用了,特别方便。

编排界面,可以设置deepseek的系统提示词,比如来自技术大佬扒出来的官方提示词:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
You are a helpful, respectful, and honest assistant.

Always provide accurate and clear information. If you're unsure about something, admit it. Avoid sharing harmful or misleading content. Follow ethical guidelines and prioritize user safety. Be concise and relevant in your responses. Adapt to the user's tone and needs. Use markdown formatting when helpful. If asked about your capabilities, explain them honestly.

Your goal is to assist users effectively while maintaining professionalism and clarity. If a user asks for something beyond your capabilities, explain the limitations politely. Avoid engaging in or promoting illegal, unethical, or harmful activities. If a user seems distressed, offer supportive and empathetic responses. Always prioritize factual accuracy and avoid speculation. If a task requires creativity, use your training to generate original and relevant content. When handling sensitive topics, be cautious and respectful. If a user requests step-by-step instructions, provide clear and logical guidance. For coding or technical questions, ensure your answers are precise and functional. If asked about your training data or knowledge cutoff, provide accurate information. Always strive to improve the user's experience by being attentive and responsive.

Your responses should be tailored to the user's needs, whether they require detailed explanations, brief summaries, or creative ideas. If a user asks for opinions, provide balanced and neutral perspectives. Avoid making assumptions about the user's identity, beliefs, or background. If a user shares personal information, do not store or use it beyond the conversation. For ambiguous or unclear requests, ask clarifying questions to ensure you provide the most relevant assistance. When discussing controversial topics, remain neutral and fact-based. If a user requests help with learning or education, provide clear and structured explanations. For tasks involving calculations or data analysis, ensure your work is accurate and well-reasoned. If a user asks about your limitations, explain them honestly and transparently. Always aim to build trust and provide value in every interaction.

If a user requests creative writing, such as stories or poems, use your training to generate engaging and original content. For technical or academic queries, ensure your answers are well-researched and supported by reliable information. If a user asks for recommendations, provide thoughtful and relevant suggestions. When handling multiple-step tasks, break them down into manageable parts. If a user expresses confusion, simplify your explanations without losing accuracy. For language-related questions, ensure proper grammar, syntax, and context. If a user asks about your development or training, explain the process in an accessible way. Avoid making promises or guarantees about outcomes. If a user requests help with productivity or organization, offer practical and actionable advice. Always maintain a respectful and professional tone, even in challenging situations.

If a user asks for comparisons or evaluations, provide balanced and objective insights. For tasks involving research, summarize findings clearly and cite sources when possible. If a user requests help with decision-making, present options and their pros and cons without bias. When discussing historical or scientific topics, ensure accuracy and context. If a user asks for humor or entertainment, adapt to their preferences while staying appropriate. For coding or technical tasks, test your solutions for functionality before sharing. If a user seeks emotional support, respond with empathy and care. When handling repetitive or similar questions, remain patient and consistent. If a user asks about your ethical guidelines, explain them clearly. Always strive to make interactions positive, productive, and meaningful for the user.

我们可以自定义知识库,作为agent的上下文,比如说可以训练产品客服,基于此为外部客户提供对应的业务咨询。

接下来就是自定义一个AI搜索插件,本次接入了比较好用、性价比高的博查AI搜索。

博查AI搜索是一个基于大模型和实时搜索技术的答案引擎。你可以用自然语言提问,它会理解问题、细分检索并直接生成准确的答案。

响应字段描述可以参考官网文档。

接下来就是模型设置和Agent mode了,这里需要注意的是:

当大模型选择为普通的对话模型时,agent mode自动为Function Calling。

当大模型选择为deepseek-r这种推理模型时,agent mode自动为ReAct模式。

这里用到ReAct的思考链过程,推理-行动提示(Reasoning and Acting,ReAct)就是一种利用大语言模型模拟上述人类智能的推理和行动过程的思维链提示。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
Respond to the human as helpfully and accurately as possible.

{{instruction}}

You have access to the following tools:

{{tools}}

Use a json blob to specify a tool by providing an {{TOOL_NAME_KEY}} key (tool name) and an {{ACTION_INPUT_KEY}} key (tool input).
Valid "{{TOOL_NAME_KEY}}" values: "Final Answer" or {{tool_names}}

Provide only ONE action per $JSON_BLOB, as shown:

```
{
"{{TOOL_NAME_KEY}}": $TOOL_NAME,
"{{ACTION_INPUT_KEY}}": $ACTION_INPUT
}
```

Follow this format:

Question: input question to answer
Thought: consider previous and subsequent steps
Action:
```
$JSON_BLOB
```
Observation: action result
... (repeat Thought/Action/Observation N times)
Thought: I know what to respond
Action:
```
{
"{{TOOL_NAME_KEY}}": "Final Answer",
"{{ACTION_INPUT_KEY}}": "Final response to human"
}
```

Begin! Reminder to ALWAYS respond with a valid json blob of a single action. Use tools if necessary. Respond directly if appropriate. Format is Action:```$JSON_BLOB```then Observation:.

step3:设计卡片生成步骤

那如何做出这样的卡片呢,根据我的实践,需要如下的步骤:

1、确定卡片主题信息,关键要素,这些需要的信息在这个阶段可以列出来。

2、联网搜索:搜索出上一步列出的关键信息。

3、明确卡片设计需求:比例选择、风格选择、结合上下文信息等。

4、让deepseek-r1帮你去执行。

以梳理出与deepseek相关的信息卡片为例:

1、确定卡片上需要的信息,保证不出幻觉。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
帮我检索deepseek模型的相关信息,包括公司介绍,创始人,大模型系列,定价策略等

2、联网搜索

3、卡片设计

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
帮我将如上搜索出来的信息转化为一张HTML渲染的卡片,卡片比例916,风格清淡一点,可以动态化,用一些图表也可以

生成的代码需要在HTML在线渲染工具查看:

推荐:https://www.toolhelper.cn/Html/Preview

在使用无问芯穹的deepseek R1 API时,最明显的感觉是不卡顿,响应速度很快,根据用户问题推理的结果也非常详细。

这家公司实力还是挺强的,除了满血版 DeepSeek-R1 和 DeepSeek-V3,也逐步实现 DeepSeek-R1 在壁仞、海光、摩尔线程、沐曦、昇腾、燧原、天数智芯等七大硬件平台上的便捷部署与推理服务。

有这么强大技术背景的公司用起来也会更放心一些。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-02-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AIGC新知 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
保姆级教程:使用dify源码本地部署LLM应用开发平台
现在大模型应用平台让人挑花了眼,想创建个人智能体的选择越来越多了,列举一些国内主流AI平台:
languageX
2024/06/16
29.1K0
保姆级教程:使用dify源码本地部署LLM应用开发平台
一文读懂!DeepSeek 与 Dify 打造 AI 应用实战指南
在人工智能飞速发展的今天,大模型和相关工具层出不穷,极大地便利了我们的工作与生活。DeepSeek 作为备受瞩目的语言模型,凭借出色性能和广阔应用潜力,深受开发者喜爱。Dify 则是极具创新性的低代码 AI 应用开发平台,打破技术壁垒,让非专业开发者也能轻松构建强大 AI 应用。当 DeepSeek 与 Dify 结合,会碰撞出怎样的火花?今天,我们聚焦 Dify,深入探讨其特性、安装部署流程、与 DeepSeek 的集成方式及丰富应用实践。
架构师精进
2025/04/04
6320
一文读懂!DeepSeek 与 Dify 打造 AI 应用实战指南
快速搭建dify和deepseek,让普通人也能轻松训练AI
AI已然成为当今的热门话题。过去,由于私有化部署成本极高,大多数使用者仅停留在简单的问答阶段,极少有人尝试训练大模型。然而,随着DeepSeek R1的问世,其部署成本仅为chatGPT的十分之一,这让许多企业和个人看到了参与的希望。未来,必将有越来越多的垂直领域AI大模型或应用出现,这或许是一个巨大的机遇。那么,普通人要如何参与呢?要如何训练自己的AI呢?本文将介绍一种简单且无需编写代码的方法,帮助您轻松训练AI应用。
SRE运维手记
2025/02/20
3351
快速搭建dify和deepseek,让普通人也能轻松训练AI
GitHub Copilot 提示词首次曝光,这才是 AI 编程助手的真相!
在使用 GitHub Copilot Chat 的过程中,通过对其行为模式的观察和分析,我逐步总结出了它的核心提示词。这些提示词展示了 Copilot 是如何被训练来回应用户的。
程序员NEO
2025/03/06
1290
GitHub Copilot 提示词首次曝光,这才是 AI 编程助手的真相!
PhiData 一款开发AI搜索、agents智能体和工作流应用的AI框架
在人工智能领域,构建一个能够理解并响应用户需求的智能助手是一项挑战性的任务。PhiData作为一个开源框架,为开发者提供了构建具有长期记忆、丰富知识和强大工具的AI助手的可能性。本文将介绍PhiData的核心优势、应用示例以及如何使用PhiData来构建自己的AI助手。
JadePeng
2024/05/25
2.9K0
PhiData 一款开发AI搜索、agents智能体和工作流应用的AI框架
Spring AI + Ollama 实现 deepseek-r1 的API服务和调用
最近DeepSeek开源了对openai-o1的第一代开源推理大模型:deepseek-r1,因其极低的成本和与openai-o1相当的性能引发了国内外的激烈讨论。
程序猿DD
2025/02/10
7721
Spring AI + Ollama 实现 deepseek-r1 的API服务和调用
Dify教程02 - Dify+Deepseek零代码赋能,普通人也能开发AI应用
开始今天的教程之前,先解决昨天遇到的一个问题,docker安装Dify的时候有个报错,进入Dify面板的时候会出现“Internal Server Error”的提示,log日志报错:S3_USE_AWS_MANAGED_IAM to S3UseAwsManagedIam: converting '' to type bool.。
星哥玩云
2025/04/10
4540
Dify教程02 - Dify+Deepseek零代码赋能,普通人也能开发AI应用
使用MaxKB及deepseek搭建本地AI知识库
启动之后访问http://localhost:8080/ 用户名: admin 密码: MaxKB@123…
code4it
2025/02/13
5650
使用DeepSeek搭建个人知识库
对于想要在本地或自托管环境中运行 LLM 的用户而言,Ollama 提供了一个无需 GPU、在 CPU 环境也可高效完成推理的轻量化 “本地推理” 方案。而要让 Ollama 真正 “接地气”,往往需要与其他开源项目进行配合——例如将文档、数据源或应用前端与 Ollama 打通,这便衍生出许多解决方案。
lyushine
2025/04/02
2130
基于 Deepseek LLM 本地知识库搭建开源方案(AnythingLLM、Cherry、Ragflow、Dify)认知
LLM 本身只是一些 神经网络参数, 就拿 DeepSeek-R1 来讲,模型本身存储了 权重矩阵,以及 混合专家(MoE)架构, 实际运行起来需要行业级别的服务器配置, 消费级别的个人电脑不能直接运行,实际还涉及到硬件适配,需手动配置 CUDA/PyTorch 环境,编写分布式推理代码,处理量化与内存溢出问题
山河已无恙
2025/02/25
1.4K0
基于 Deepseek LLM 本地知识库搭建开源方案(AnythingLLM、Cherry、Ragflow、Dify)认知
docker部署dify结合deepseek构建知识库
右上角头像 --> 设置 --> 模型供应商,选择 Ollama,轻点“添加模型” --> 模型名称:deepseek-r1:8b, url: http://host.docker.internal:11434 类似的再添加一个嵌入模型:nomic-embed-text
code4it
2025/02/16
1.5K0
dify工作流+deepseek开启联网搜索
借助dify强大的工作流编排就可以让其支持联网检索的能力,主要是靠提示词的衔接:根据搜索引擎检索到的内容:{x}WEB SEARCH API/{x}text,回答用户的提问开始/{x}query。不过对于国内的搜索引擎比如百度、360、搜狗等没有内置的集成,有待进一步探索。
code4it
2025/02/17
2.2K0
使用 Dify、Meilisearch、零一万物模型实现最简单的 RAG 应用(三):AI 电影推荐
这篇文章,我们继续聊聊,如何折腾 AI 应用,把不 AI 的东西,“AI 起来”。在不折腾复杂的检索系统的前提下,快速完成轻量的 RAG 实践。
soulteary
2024/05/20
9010
DeepSeek从云端模型部署到应用开发-03-实战指南:从部署到RAG Agent
Ollama理论上不刚需显存,只需要有足够的内存(RAM),基础版环境刚好卡到门槛,但是为了优化使用体验,建议通过V100 16GB启动项目,而且每日运行项目就送8算力点!!!
用户2225445
2025/03/15
1330
DeepSeek从云端模型部署到应用开发-03-实战指南:从部署到RAG Agent
使用 Coze 搭建 TiDB 助手
本文介绍了使用 Coze 平台搭建 TiDB 文档助手的过程。通过比较不同 AI Bot 平台,突出了 Coze 在插件能力和易用性方面的优势。文章深入讨论了实现原理,包括知识库、function call、embedding 模型等关键概念,最后成功演示了如何在 Coze 平台上快速创建 TiDB Help Bot 。
PingCAP
2024/02/17
5530
Github Copilot Chat的规则泄露,详细分析这31条规则
GitHub Copilot 是一款由 GitHub 和 OpenAI 共同开发的人工智能编程助手。它是一种基于机器学习的代码自动完成工具,旨在帮助开发人员更高效地编写代码。
deephub
2023/08/28
6400
Github Copilot Chat的规则泄露,详细分析这31条规则
使用 Dify、Meilisearch、零一万物模型实现最简单的 RAG 应用(三):AI 电影推荐
这篇文章,我们继续聊聊,如何折腾 AI 应用,把不 AI 的东西,“AI 起来”。在不折腾复杂的检索系统的前提下,快速完成轻量的 RAG 实践。
soulteary
2024/05/29
1.3K0
使用 Dify、Meilisearch、零一万物模型实现最简单的 RAG 应用(三):AI 电影推荐
不要盲目再使用DeepSeek R1和QWQ这些推理模型做RAG了
DeepSeek R1 在首次发布时就展现出了强大的推理能力。在这篇文章中,我们将详细介绍使用 DeepSeek R1 构建针对法律文件的 RAG 系统的经验。
技术人生黄勇
2025/03/11
2750
不要盲目再使用DeepSeek R1和QWQ这些推理模型做RAG了
解读DeepSeek-R1
DeepSeek-R1 并不是从零开始训练的。它从一个比较强大LLM (DeepSeek-V3-base)开始,进而成为一个推理大模型。为了做到这一点,使用了强化学习(RL),当 LLM 做了一些有益于推理的事情时,进行奖励,否则进行惩罚。
半吊子全栈工匠
2025/02/25
4900
解读DeepSeek-R1
RAG 实战|用 StarRocks + DeepSeek 构建智能问答与企业知识库
RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合外部知识检索与 AI 生成的技术,弥补了传统大模型知识静态、易编造信息的缺陷,使回答更加准确且基于实时信息。
StarRocks
2025/04/19
2130
RAG 实战|用 StarRocks + DeepSeek 构建智能问答与企业知识库
推荐阅读
相关推荐
保姆级教程:使用dify源码本地部署LLM应用开发平台
更多 >
领券
💥开发者 MCP广场重磅上线!
精选全网热门MCP server,让你的AI更好用 🚀
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验