本地部署基于 Ollama 的 DeepSeek 模型,可以按照以下步骤操作。Ollama 是一个用于本地运行大型语言模型(LLM)的工具,支持多种模型,包括 DeepSeek。
Ollama 支持 macOS 和 Linux 系统。以下是安装步骤:
1. 打开终端。
2. 运行以下命令安装 Ollama:
brew install ollama
1. 打开终端。
2. 运行以下命令安装 Ollama:
curl -fsSL https://ollama.com/install.sh | sh
Ollama 目前不支持原生 Windows,但可以通过 WSL(Windows Subsystem for Linux)在 Windows 上运行。安装 WSL 后,按照 Linux 的步骤操作。
Ollama 支持从 Hugging Face 或其他来源加载模型。以下是下载和加载 DeepSeek 模型的步骤:
1. 确保 Ollama 已安装并运行。
2. 使用以下命令下载 DeepSeek 模型:
ollama pull deepseek-r1:1.5b
如果 DeepSeek 不在默认模型列表中,可以手动指定模型文件的路径或 URL。
下载完成后,可以通过以下命令运行 DeepSeek 模型:
ollama run deepseek-r1:1.5b
运行后,Ollama 会启动一个交互式终端,您可以直接与 DeepSeek 模型对话。
Ollama 提供了一个本地 API,可以通过 HTTP 请求与模型交互。
1. 运行以下命令启动 Ollama 的 API 服务:
ollama serve
默认情况下,API 会在 http://localhost:11434
上运行。
使用 curl
或编程语言(如 Python)发送请求。以下是一个示例:
curl http://localhost:11434/api/generate -d '{
"model": "deepseek",
"prompt": "你好,介绍一下你自己",
"stream": false
}'
import requests
url = "http://localhost:11434/api/generate"
data = {
"model": "deepseek",
"prompt": "你好,介绍一下你自己",
"stream": False
}
response = requests.post(url, json=data)
print(response.json())
如果模型运行速度较慢,可以尝试以下优化方法:
max_tokens
或 temperature
以减少计算量。11434
未被占用。• 使用chatboxai: 下载 https://chatboxai.app/zh
• 选择模型提供方:OLLAMA API
• 选择模型:deepseek-r1:1.5b