基于 coze 搭建自己的知识库,有两个问题:
基于本地环境搭建自己的大模型知识库,这里选取的是 DeepSeek R1 大模型。
Ollama 作为本地大模型部署的 “瑞士军刀”,在易用性和跨平台兼容性上表现突出,尤其适合个人开发者和小型团队快速验证模型想法。
可以从链接:https://ollama.com/ 进行下载
也可以从命令下载
### Linux/macOS
curl https://ollama.ai/install.sh | sh
# Windows
winget install Ollama.Ollama
查看 ollama 看是否安装成功
这里安装的是 Deepseek-R1
大模型机器配置要求
ollama 常用命令
安装可视化工具 从链接下载:https://anythingllm.com/
使用 Anything LLM 时,嵌入器(Embedder)的首选项配置直接影响语义理解、检索效率和多模态交互的效果。 这里配置的是:nomic-embed-text 任务适配优先