今天,CloudStudio 在 DeepSeek-R1 CPU 模板中已内置知识库,支持 Open WebUI 和 AnythingLLM 两种模式,无需动手搭建,开箱即可拥有属于自己的私有知识库。
下周三晚7:30,还将会有腾讯工程师、资深 AI 专家漫谈 DeepSeek,记得预约直播~👇
知识库(Knowledge Base)是一个存储和管理知识的系统,通常包含结构化和非结构化的信息,用于帮助用户或系统快速查找和获取相关知识。
你可以把它想象成一个“知识仓库”,里面存放着各种有用的信息,比如文档、常见问题解答(FAQ)、数据库、规则、案例等。
举个栗子
假设你是一名技术客服人员,客户问你一个关于某个产品的问题。
如果你有一个完善的知识库,你可以直接在知识库中搜索相关产品的使用说明或常见问题解答,快速找到答案并回复客户。
如果没有知识库,你可能需要去问同事或查找一堆文档,效率会低很多。
搭建个人知识库不仅能提升工作效率,还能促进持续学习和团队协作,对个人职业发展和团队知识管理具有长远意义。
RAG(Retrieval Augmented Generation,检索增强生成)是一种让大语言模型(LLM)变得更聪明的方法。
简单来说,它通过给模型提供一个外部的“知识库”,让模型在回答问题时可以“查资料”,从而给出更准确、更相关的答案。
举个栗子
想象一下,大模型就像一个学生,而 RAG 系统就是一本字典。
当学生遇到不懂的问题时,他可以翻开字典查找相关的解释,然后再根据字典里的内容回答问题。
这样,学生不仅能回答得更准确,还能避免“瞎编”答案。
那么,当大模型遇到不懂的问题时,他也可以查字典,也就是 RAG 系统。
这里,我先贴出一个 RAG 的运作流程图。
好了,废话不多说,接下来就带大家具体实操了。
步骤1 :进入 Cloud Studio DeepSeek CPU 模板,唤起内置 Open-WebUI 或 AnythingLLM 组件
进入网站:https://ide.cloud.tencent.com/dashboard/
点击任意 DeepSeek CPU模板进入工作空间, 唤起 Open-WebUI 或 AnythingLLM, 即刻拥有完全属于个人的知识库。
相对于本地搭建 RAG 知识库,体验门槛直线降低!
默认唤起 AnythingLLM ( 4001 端口)。
在【端口】处也可唤起 Open-WebUI。
Open-WebUI 初次使用需要注册账户。
步骤 2.1:AnythingLLM 构建知识库
- 新建【工作区】
- 上传本地文档并载入工作区(同时也支持网页链接设置)
- 关掉工作区设置界面即可开启对话
步骤2.2:Open-WebUI 构建知识库
前期设置:点击左下角用户 ICON 【设置】 -【 管理员设置】 -【 文档】 -【 设置模型引擎】
将【语义向量模型引擎】处改为 Ollama ,【语义向量模型】处输入该模板支持的任意规格 deepseek-r1 模型,点击【保存】。
进入左侧【工作空间】,点击【知识库】,点击右侧“+”,即可创建知识库。
上传本地文件或将本地文件拖入行业报告。
返回对话窗口,在输入框输入“#”,选择知识库后即可进行对话。
最后,我们来看看
以 AnythingLLM 为例,基于我们传入的《微短剧行业深度分析报告》文件,得到的对话答案能够较为精准地提权。
Open WebUI 的输出效果也符合预期,提权精准。
我们推出针对为 Cloud Studio 宣传的自媒体特权计划,招募长期合作的内容创作者,创作者将永久被授予 20000 分钟/月的基础版 GPU 使用配额。
20000分钟(333小时) 8+TFlops 算力、16GB+显存 的使用配额!什么概念!
可以系统化地利用 DeepSeek R1 模型实现从模型优化到实际落地的完整闭环。可生成数十万 10 万条营销文案、可提供稳定的高并发实时 API 服务。
心动吗?
还等啥呢?!
快来体验吧!!
参与方式
扫码联系工作人员进行登记初审:
入选标准
希望创作者
注意:我们鼓励原创和真实,请不要抄袭、搬运他人内容。
-End-