首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >基于 DeepSeek R1 搭建自己的大模型知识库

基于 DeepSeek R1 搭建自己的大模型知识库

作者头像
王小明_HIT
发布2025-04-07 10:52:41
发布2025-04-07 10:52:41
63700
代码可运行
举报
文章被收录于专栏:程序员奇点程序员奇点
运行总次数:0
代码可运行

基于 coze 搭建自己的知识库,有两个问题:

  1. 信息安全问题;
  2. 数据容量问题;

基于本地环境搭建自己的大模型知识库,这里选取的是 DeepSeek R1 大模型。

安装 ollama

Ollama 作为本地大模型部署的 “瑞士军刀”,在易用性和跨平台兼容性上表现突出,尤其适合个人开发者和小型团队快速验证模型想法。

可以从链接:https://ollama.com/ 进行下载

也可以从命令下载

代码语言:javascript
代码运行次数:0
运行
复制
### Linux/macOS
curl https://ollama.ai/install.sh | sh
# Windows
winget install Ollama.Ollama

查看 ollama 看是否安装成功

安装大模型

这里安装的是 Deepseek-R1

大模型机器配置要求

ollama 常用命令

  1. 模型加载 ollama run deepseek-r1:32b
  1. 查看已安装模型 ollama list
  2. 如何卸载大模型 ollama rm deepseek-r1:32b https://cloud.tencent.com/developer/article/2494891

安装可视化工具 从链接下载:https://anythingllm.com/

配置LLM Anything

  1. 配置大模型 这里选择的是刚部署的 DeepSeek-R1

使用 Anything LLM 时,嵌入器(Embedder)的首选项配置直接影响语义理解、检索效率和多模态交互的效果。 这里配置的是:nomic-embed-text 任务适配优先

  • 语义检索:选择密集嵌入模型(如 bge-m3、nomic-embed-text),支持长文本(8192 tokens)和多语言检索。
  • 关键字匹配:搭配稀疏嵌入模型(如 BM25),提升精确关键词定位能力。
  • 混合搜索:通过 LangChain 等框架组合密集与稀疏嵌入,动态调整权重(如 weights=(0.49, 0.51))。
  1. 资料上传

演示

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-04-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 程序员奇点 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 安装 ollama
  • 安装大模型
  • 配置LLM Anything
  • 演示
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档