Loading [MathJax]/jax/input/TeX/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >媲美GPT4o!教你用智谱GLM-4-Plus在Fastgpt、Dify中构建知识库,并结合o1思维链和工具调用!

媲美GPT4o!教你用智谱GLM-4-Plus在Fastgpt、Dify中构建知识库,并结合o1思维链和工具调用!

作者头像
AI进修生
发布于 2024-12-02 11:42:13
发布于 2024-12-02 11:42:13
83201
代码可运行
举报
文章被收录于专栏:AI进修生AI进修生
运行总次数:1
代码可运行

🍹 Insight Daily 🪺

Aitrainee | 公众号:AI进修生

Hi,这里是Aitrainee,欢迎阅读本期新文章。

前段时间用 智谱GLM-4-Plus 模型结合FatGPT、Dify设置工作流时,我想把之前g1项目的思维链整合进来。

▲ g1思维链在Dify中实现

我们知道,思维链提示词可以使大模型对初始问题进行逐步分析。而在他进行每步分析的过程中,我希望能他还能根据自身需要来调用工具以支撑更好的分析。

就像这样:

这里对于同一个问题使用了知识库和联网,并且存在于不同的推理阶段。

(临时使用笔记本ollama部署的随机嵌入模型,检索可能差点)

你可以看到他,拆解问题、调用知识库搜索工具等,就像React一样。

这个工作流在Fastgpt中是这样的:

这个工作流由FastGPT里面的 问题优化节点、图片分析节点、知识库节点、搜索引擎节点、工具调用(主控节点-COT)节点构成。

>/ FastGPT节点介绍:https://doc.tryfastgpt.ai/docs/workflow/modules/ai_chat/

主控节点(COT)会根据用户的初始提问,逐步进行分析,并调用工具库中的相关工具。这些工具可能包括:引导节点,用于帮助用户进行提问引导与优化;搜索节点,提供实时信息;以及知识库,提供专业内容。当然,你可以添加更多的工具以支持主控节点调用。

现在来看看,主控节点-COT 提示词:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
你是一位高级人工智能推理助手,负责全面分析特定问题或疑问。你的任务是准确分类识别用户问题,基于推理结果动态调用相应的工具。你应以结构化和透明的方式呈现推理过程,每一步都经过彻底检查,最终得出合理结论。

### 推理步骤的结构:
1. **标题**:明确标识当前推理阶段。
2. **内容**:详细描述你的思考过程,解释理由及得出结论所采取的步骤。
3. **工具调用**(如有需要):在此步骤调用相关工具,并明确工具调用的原因。
4. **下一步行动**:决定是否继续深入推理或准备提供最终答案。

### 输出格式:
请使用以下Markdown格式返回结果,通过视觉处理方式降低用户对推理过程的关注度:

### Title:当前推理阶段的简短标签。
#### Content:深入解释此步骤的推理过程。
> Tool Call(如有必要):描述并调用相应的工具。
> Next Action >> 选择 'continue' 继续推理或 'final_answer' 得出结论。

### 关键说明:
- **至少进行 2 个不同的推理步骤**,每个步骤基于前一个步骤。
- **承认人工智能的局限性**,尤其在评估准确性及可能面临的困难方面。
- **使用多种推理框架**(如演绎、归纳、溯因、类比推理)来解决问题。
- **批判性分析推理过程**,寻找潜在缺陷或逻辑漏洞。
- **结合相关领域知识和最佳实践**,确保推理符合既定标准。
- **量化每个步骤和最终结论的确定性水平**,并考虑可能影响结果的边缘情况。
### Markdown 输出示例:

### 初始问题分析
> #### Content:
> 为了有效地解决这个问题,我将首先将给定的信息分解为关键部分。这涉及到识别……【详细说明】……通过这种方式构建问题,我们可以系统地解决每个方面。
>
> > Tool Call:
> > 在这一步,我决定调用 [工具名称] 来进一步分析 [具体分析内容]。这是因为该工具可以……
>
> Next Action >> continue

---
### 最终结论
#### Content:
经过多轮推理与工具分析,我得出最终结论是……【详细说明】……这个结论基于我们之前的推理框架与工具结果。

看过下面g1这篇文章的,你就知道我是用这里面的o1思维链改良而来的:

g1:o1推理链开源实现,原理竟如此简单!解决 60-80% 的困扰LLM的简单逻辑问题

2024-09-18

这个提示词子核心分两部分,一个是关键说明那一部分,另外的主要就是格式化输出了。

在得出最终结论后他会终止思维链,得到 final_answer。

最后出现的增强搜索等三个模块,是工作流后面用户交互节点起到的效果。

当然,如果你不想每次AI回答都以这么长的COT内容输出,那么你可以在FastGPT中设置三个全局变量和判断器。

这样可以为不同的提示词方案创建三条支线工作流:一种用于普通工具调用,一种用于COT+工具调用,另一种用于直接从知识库回答。根据不同场景,可以灵活切换选择。

GLM-4-Plus 旗舰模型

此外,我们介绍一下 上面 主控节点-COT 使用的GLM-4-Plus模型,它是智谱迄今为⽌最强⼤的模型。

GLM-4-Plus 在各⼤语⾔⽂本能⼒数据集上获得了与 GPT-4o 及 405B 参数量的 Llama3.1 相当的⽔平。

在最新的SuperBench⼤模型评测中,GLM-4-Plus 位列世界前三,打破了此前国外模型垄断前三甲的局⾯。

有关智谱平台的更多信息,请访问:https://zhipuaishengchan.datasink.sensorsdata.cn/t/YX

提示词排版优化 1

当然,提示词词这种东西,你看了,懂了,接着就可以按照自己的想法轻松修改迭代,难的是最开始想出这个提示词的Author,当然,我主要起一个参考的作用。

比如这个提示词原来是有 [ ] 记录任务阶段的

但我觉得输出的太啰嗦或者界面不够整洁,所以我们就可以在输出格式这里把这些都删了从而控制输出的内容:

去除提示词中的任务[ ]、Tool Call 等输出,会使得页面更清爽

提示词优化 2:Summary 折叠输出

进一步我们希望能折叠思维链的中间内容的输出,只输出最后结论。在不考虑改变Fastgpt前端的情况下,那么可以在提示词中加入Markdown Summary 语法,前端只要能渲染Markdown语法就行了:

不幸的是,Fastgpt 对Summary语法不支持,直接原始输出了。

但是Dify可以,它的效果是这样的:

所以我们的Summary提示词是这样的:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
本文所有的提示词还是放在公众号后台吧,太长了,影响观感,哈哈,回复:glm4

GLM-4-Plus 接入 Fastgpt

有一个点没讲,GLM-4-Plus如何接入Fastgpt ?

首先,FastGPT是一个免费、开源且功能强大的 AI 知识库平台,提供开箱即用的数据处理、模型调用、RAG 检索和可视化 AI 工作流。能够轻松构建复杂的 LLM 应用程序。

介绍的是Windows下的教程,我们使用docker部署它,所以先确保你安装了Docker环境:https://doc.tryfastgpt.ai/docs/development/docker/

1、运行FastGPT部署指令:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mkdir fastgpt
cd fastgpt
Invoke-WebRequest -Uri https://raw.githubusercontent.com/labring/FastGPT/main/projects/app/data/config.json -OutFile config.json
Invoke-WebRequest -Uri https://raw.githubusercontent.com/labring/FastGPT/main/files/docker/docker-compose-pgvector.yml -OutFile docker-compose.yml

然后执行Docker-compose up -d命令运行镜像

最后在浏览器打开3000端口:http://localhost:3000/

2、将智谱API 接入Fastgpt中:

One-API:让国内LLM、Coze等跑通仅支持OpenAI API的开源项目 | 保姆级教程、可配合免费LLM API使用!

我们要把智谱的api接入进去,所以我们先打开One-API:http://localhost:3001

然后点击渠道

把箭头上面的这些配好就行。智谱API获取地址:https://bigmodel.cn/usercenter/apikeys

点击测试,可以看到右上角测试通过

然后向FastGPT config 文件加入 GLM-4-Plus 模型

配置好后,由于配置了新的渠道,所以我们得重启一下镜像:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker-compose restart

我们可以看到fastgpt多了一个:GLM-4-PLUS 模型,接入成功!

3、FastGPT 知识库搭建 ?

在fastgpt中新建一个知识库,文本处理模型就选择GLM-4-PLUS

默认用的是OpenAI的嵌入模型(用不了),你可以选择去Ollama中下载一个,然后和上面配置GLM-4-PLUS API一样的步骤,把这个本地嵌入模型配置到One-API中。

记得config.json也要配置,fastgpt才有显示

Dify中接入GLM-4-Plus

Dify的部署和FastGPT差不多:https://docs.dify.ai/zh-hans/getting-started/install-self-hosted/docker-compose

拉仓库、拉镜像、运行镜像:

访问Dify后,接入GLM-4-Plus 模型是这样的(在Dify设置里面选择模型供应商,获取智谱AI密钥并填入即可):

这样就好了。

最后,顺便提一句,如果你是本地部署模型,这篇文章有一些知识:

Ollama 升级!支持一键拉取Huggingface上所有的模型,太方便了!(vLLM、Fastgpt、Dify、多卡推理)

2024-10-17

对了,如果你以前看我的文章,你可能在使用Aider,所以 ...

Aider 中使用 GLM-4-Plus

我们可以看到Aider并没有提供智谱模型支持,但是它提供Openai兼容格式支持,而智谱的模型兼容OpenAI格式。

所以我们只需下面三步就可以在Aider中使用 glm-4-plus(setx是windows下环境变量设置命令):

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
setx OPENAI_API_BASE "https://open.bigmodel.cn/api/paas/v4/"
setx OPENAI_API_KEY xx
aider --model openai/glm-4-plus

只需要设置 OPENAI_API_BASE 、OPENAI_API_KEY 即可,然后再以 "aider --model openai/glm-4-plus" 指定aider启用的模型;

API获取地址:https://bigmodel.cn/usercenter/apikeys,并将api填入OPENAI_API_KEY。

操作过程如下

我们输入打招呼用语,可以看到它正常输出。

然后让他使用HTML, CSS和JS创建一个待办事项应用程序。

Plus 模型速度非常快,运行完成后打开它,功能一切正常。

对了,你如果想Aider双模架构,可以看看这篇文章,Aider是一款非常好的AI编码助手:

Aider(已升级):Aider利用双模型架构做到85% SOTA得分!(架构师/编辑师助你实现编程新高度)

除此以外你可以在任何兼容Openai格式的API接入应用中使用 GLM-4-Plus 模型。比如我们以前的Claude Dev。

亦或是知识笔记软件Obsidian

Obsidian 接入 GLM系列模型 查看机器之心文章:https://mp.weixin.qq.com/s/xDBMqjVFxzSJdtX_VkwqtA

🌟希望这篇文章对你有帮助,感谢阅读!如果你喜欢这系列文章请以 点赞 / 分享 / 在看 的方式告诉我,以便我用来评估创作方向。

👽Submission:kristjahmez06@gmail.com

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-11-01,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI进修生 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
智谱进入Token亿时代,AI销售智能体+大模型实战指南!
最近,智谱宣布BigModel开放平台多款大模型产品进行价格调整,率先进入「亿」时代,即模型以“每亿tokens”为单位计价。
陈宇明
2025/04/26
570
智谱进入Token亿时代,AI销售智能体+大模型实战指南!
模型限流又掉线?这招让Dify飞起来
在 AI 应用快速发展的今天,Dify 作为一个开放式智能体开发平台,天然支持多种大模型对接,包括 OpenAI、Zhipu、Moonshot、DeepSeek 等。 但你是否遇到过以下问题?
用户11637544
2025/05/03
670
模型限流又掉线?这招让Dify飞起来
智谱AI大模型免费开放:开启AI创作新时代
智谱AI作为国内人工智能领域的领军企业,一直致力于认知智能大模型的研发。大模型,即大型语言模型(Large Language Model,LLM),是近年来人工智能领域的重要突破。通过海量数据的训练,大模型能够理解和生成自然语言,具备强大的语言理解和生成能力,在文本创作、信息归纳、问答对话等方面展现出惊人的表现。
正在走向自律
2025/04/19
1970
智谱AI大模型免费开放:开启AI创作新时代
RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow、Anything-LLM,以及更多推荐
MaxKB = Max Knowledge Base,是一款基于 LLM 大语言模型的开源知识库问答系统,旨在成为企业的最强大脑。它能够帮助企业高效地管理知识,并提供智能问答功能。想象一下,你有一个虚拟助手,可以回答各种关于公司内部知识的问题,无论是政策、流程,还是技术文档,MaxKB 都能快速准确地给出答案:比如公司内网如何访问、如何提交视觉设计需求等等
汀丶人工智能
2024/08/05
11.3K0
RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow、Anything-LLM,以及更多推荐
Dify 与 FastGPT 流程编排能力对比分析
在人工智能快速发展的今天,大语言模型(LLM)应用平台正在重塑各行各业的工作流程。其中,Dify 和 FastGPT 作为两款具有重要影响力的工具,凭借各自独特的流程编排能力,为开发者和使用者提供了强大的支持。流程编排的优劣直接影响着应用的效率、灵活性和可扩展性,因此深入理解这两个平台的特点对于选择合适的工具至关重要。
井九
2024/10/12
2.4K0
Dify 与 FastGPT 流程编排能力对比分析
大型语言模型智能应用Coze、Dify、FastGPT、MaxKB 对比,选择合适自己的LLM工具
Coze、Dify、FastGPT 和 MaxKB 都是旨在帮助用户构建基于大型语言模型 (LLM) 的智能应用的平台。它们各自拥有独特的功能和侧重点,以下是对它们的简要对比:
星哥玩云
2025/04/08
3570
大型语言模型智能应用Coze、Dify、FastGPT、MaxKB 对比,选择合适自己的LLM工具
详解几种常见本地大模型个人知识库工具部署、微调及对比选型(1)
这几年,各种新技术、新产品层出不穷,其中,大模型(Large Language Models)作为AI领域的颠覆性创新,凭借其在语言生成、理解及多任务适应上的卓越表现,迅速点燃了科技界的热情。从阿尔法狗的胜利到GPT系列的横空出世,大模型不仅展现了人工智能前所未有的创造力与洞察力,也预示着智能化转型的新纪元。然而,大模型的潜力要真正转化为生产力,实现从实验室到现实世界的平稳着陆,还需跨越理论到实践的鸿沟。
zhouzhou的奇妙编程
2024/06/11
19K0
如何利用 FastGPT 和 Dify.AI 构建第二个大脑
在信息爆炸的时代,我们每天接触到的数据量惊人,记忆所有信息几乎不可能。因此,一个个人知识库显得至关重要。它就像你的第二个大脑,帮您储存和整理重要信息,随时随地轻松访问。
renhai
2024/05/22
3.1K0
如何利用 FastGPT 和 Dify.AI 构建第二个大脑
技术指南:5分钟零成本实现本地AI知识库搭建
你一定经历过各种通用大模型一本正经胡说八道的时候吧,AI一通丝滑输出让人真假难辨,防不胜防。这种情况被称为AI幻觉。
星融元Asterfusion
2024/09/03
5.6K1
技术指南:5分钟零成本实现本地AI知识库搭建
Dify学习笔记01:什么是Dify
最近接触了不少构建智能体的平台,所以就考虑是否有开源的平台可以让我深入学习一下智能体,所以就了解到了Dify。
叫我阿柒啊
2025/03/23
5950
Dify学习笔记01:什么是Dify
基于 Deepseek LLM 本地知识库搭建开源方案(AnythingLLM、Cherry、Ragflow、Dify)认知
LLM 本身只是一些 神经网络参数, 就拿 DeepSeek-R1 来讲,模型本身存储了 权重矩阵,以及 混合专家(MoE)架构, 实际运行起来需要行业级别的服务器配置, 消费级别的个人电脑不能直接运行,实际还涉及到硬件适配,需手动配置 CUDA/PyTorch 环境,编写分布式推理代码,处理量化与内存溢出问题
山河已无恙
2025/02/25
1.4K0
基于 Deepseek LLM 本地知识库搭建开源方案(AnythingLLM、Cherry、Ragflow、Dify)认知
销售数据分析神器:上传表格+分析报告+图表生成!GLM-4-Plus神助攻!
在当今数据驱动的商业环境中,销售数据分析已成为企业决策的关键因素。为了帮助企业快速、高效地从海量数据中提取有价值的信息,今天我要分享销售数据分析AI智能体详细搭建全过程。
陈宇明
2025/02/26
1410
销售数据分析神器:上传表格+分析报告+图表生成!GLM-4-Plus神助攻!
深度解锁AI私有知识库:用 DeepSeek 和 RAGFlow 打造企业级智能平台
时间过的真快呀,又是一周结束了,最近AI和机器人的热度越来越高,能看到相关话题的文章越来越多。我在想,作为一个普通打工仔,我们能做什么,除了不断问AI生成答案,然后问完解决完就扔在脑后?想必不是长久之计,所以将知识沉淀,搭建一个私人知识库,来辅助自己建立脑中的知识库才是最重要的,今天就来给大家介绍如何利用开源项目打造一款私有AI知识库!
希里安
2025/03/31
2580
深度解锁AI私有知识库:用 DeepSeek 和 RAGFlow 打造企业级智能平台
ComfyUI Party:将LLM与图片工作流集成,图片、语音、文本、视觉一体!(graphRAG、ollama)
我们正在使用一些Agent平台如FastGPT和Dify,他们注重于快速生成文本内容,知识库问答,提供自定义能力和与现有系统的集成性。
AI进修生
2024/12/02
1.1K0
ComfyUI Party:将LLM与图片工作流集成,图片、语音、文本、视觉一体!(graphRAG、ollama)
Ollama 升级!支持一键拉取Huggingface上所有的模型,太方便了!(vLLM、Fastgpt、Dify、多卡推理)
我记得,梦的开始,源于Ollama。很早以前的一篇文章教大家如何通过 Ollama 来使用开源 LLM,许多人最初接触 AI 时也是从Ollama开始的。Ollama 之所以出色,是因为它使用了 GGML 格式,这是一种‘轻量版’的大语言模型,以较低精度运行,能够轻松适配普通硬件。这使得在本地系统上运行这些模型变得简单高效,真正为 AI 的广泛应用铺平了道路。
AI进修生
2024/12/02
14.9K0
Ollama 升级!支持一键拉取Huggingface上所有的模型,太方便了!(vLLM、Fastgpt、Dify、多卡推理)
使用大模型开发“数据解读大师”应用,同事们惊呆了
大模型遍地开花,但真正能被用户认可的寥寥可数,优秀的落地产品更是少了。一方面很多国产大模型面临gpt、开源模型套壳的窘境,连Sam Altman都跳出来说套壳GPT的公司活不长久,另一方面目前还没有出现现象级的国产大模型应用,在各个垂直领域也少有优秀的产品,比如法律、医学、编程等等。
派大星的数据屋
2024/11/28
3040
使用大模型开发“数据解读大师”应用,同事们惊呆了
又一AI利器!智谱发布全新推理大模型,速度快8倍,价格比DeepSeek-R1更低~
现在的大模型多如牛毛,LLaMA、Qwen、Bert等等,根本学不过来,甚至有的卷王还看Transform源码,这对于一般人来说学习曲线太长了。
派大星的数据屋
2025/04/18
940
又一AI利器!智谱发布全新推理大模型,速度快8倍,价格比DeepSeek-R1更低~
智谱 GLM 新成员开源:高性能、推理快,体验入口“z.ai”免费开放
继智谱在上个月发布了他们的AutoGLM沉思全新智能体,在AI圈子引起广泛的反向,很多人纷纷使用AutoGLM沉思去完成自己工作中的一些任务,如写研究报告、行业调研等等。
AIGC新知
2025/04/16
2530
智谱 GLM 新成员开源:高性能、推理快,体验入口“z.ai”免费开放
基于 AutoFlow 快速搭建基于 TiDB 向量搜索的本地知识库问答机器人
本文将详细介绍如何通过 PingCAP 开源项目 AutoFlow 实现快速搭建基于 TiDB 的本地知识库问答机器人。如果提前准备好 Docker、TiDB 环境,整个搭建过程估计在 10 分钟左右即可完成,无须开发任何代码。
PingCAP
2024/12/05
1560
基于 AutoFlow 快速搭建基于 TiDB 向量搜索的本地知识库问答机器人
第一个免费可用的智能Agent产品全量上线,中国公司智谱打造,推理模型比肩R1
我们来看一个非常经典的案例:只需要输出你想讨论的话题,AI 就能自动去小红书、知乎等平台上深度查询、总结完整报告,并转化为面向大众的传播内容。短短 14 天里,AI 孵化出了一个 5000 多个粉丝的小红书账号,还接到了商单。
机器之心
2025/04/01
2040
第一个免费可用的智能Agent产品全量上线,中国公司智谱打造,推理模型比肩R1
推荐阅读
智谱进入Token亿时代,AI销售智能体+大模型实战指南!
570
模型限流又掉线?这招让Dify飞起来
670
智谱AI大模型免费开放:开启AI创作新时代
1970
RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow、Anything-LLM,以及更多推荐
11.3K0
Dify 与 FastGPT 流程编排能力对比分析
2.4K0
大型语言模型智能应用Coze、Dify、FastGPT、MaxKB 对比,选择合适自己的LLM工具
3570
详解几种常见本地大模型个人知识库工具部署、微调及对比选型(1)
19K0
如何利用 FastGPT 和 Dify.AI 构建第二个大脑
3.1K0
技术指南:5分钟零成本实现本地AI知识库搭建
5.6K1
Dify学习笔记01:什么是Dify
5950
基于 Deepseek LLM 本地知识库搭建开源方案(AnythingLLM、Cherry、Ragflow、Dify)认知
1.4K0
销售数据分析神器:上传表格+分析报告+图表生成!GLM-4-Plus神助攻!
1410
深度解锁AI私有知识库:用 DeepSeek 和 RAGFlow 打造企业级智能平台
2580
ComfyUI Party:将LLM与图片工作流集成,图片、语音、文本、视觉一体!(graphRAG、ollama)
1.1K0
Ollama 升级!支持一键拉取Huggingface上所有的模型,太方便了!(vLLM、Fastgpt、Dify、多卡推理)
14.9K0
使用大模型开发“数据解读大师”应用,同事们惊呆了
3040
又一AI利器!智谱发布全新推理大模型,速度快8倍,价格比DeepSeek-R1更低~
940
智谱 GLM 新成员开源:高性能、推理快,体验入口“z.ai”免费开放
2530
基于 AutoFlow 快速搭建基于 TiDB 向量搜索的本地知识库问答机器人
1560
第一个免费可用的智能Agent产品全量上线,中国公司智谱打造,推理模型比肩R1
2040
相关推荐
智谱进入Token亿时代,AI销售智能体+大模型实战指南!
更多 >
领券
💥开发者 MCP广场重磅上线!
精选全网热门MCP server,让你的AI更好用 🚀
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验