想不依赖网络、零门槛运行AI大模型?Ollama帮你轻松实现!本文手把手教你部署DeepSeek模型,并通过本地API实现对话、编程、数据分析,小白也能秒变AI玩家!🌟
Ollama是一个轻量级工具,支持在本地一键运行大模型(如Llama、DeepSeek等),无需复杂配置。
1. 下载安装Ollama

curl -fsSL https://ollama.ai/install.sh | sh2. 安装 点击install

3. 验证安装成功
打开终端输入 ollama --version,显示版本号即安装成功。

Ollama内置了主流模型库,直接通过命令行拉取即可。
在下载前要确定你的电脑配置
模型参数规模 | 适用场景 | CPU最低要求 | 内存最低要求 | 硬盘空间 | GPU显存推荐 |
|---|---|---|---|---|---|
1.5B | 基础任务(文本生成、简单问答) | 4核以上,支持AVX2 | 8GB+ | 3GB+ | 非必需,若使用则4GB+ |
7B | 开发测试等场景 | 8核以上 | 16GB+ | 8GB+ | 8GB+ |
8B | 更高精度的轻量级任务 | 8核以上 | 16GB+ | 未明确提及,预计接近7B | 推荐RTX 3070或类似性能 |
14B | 企业级复杂任务 | 12核以上 | 32GB+ | 15GB+ | 16GB+ |
32B | 高精度专业领域任务 | 16核以上 | 64GB+ | 30GB+ | 24GB+ |
70B | 科研机构进行高复杂度生成任务 | 32核以上 | 128GB+ | 70GB+ | 多卡并行,至少40GB |
我的电脑是4070ti所以选择了 deepseek-r1:7b
1. 下载DeepSeek模型
(根据需求选择模型版本,如deepseek-r1:7b、deepseek-math-7b等)
ollama pull deepseek-r1:7b注:首次下载需等待模型文件拉取(约5-20分钟,取决于网络)。

2. 启动模型服务
(根据需求选择模型版本,如deepseek-r1:7b、deepseek-math-7b等)
ollama run deepseek-r1:7b
Ollama默认开启本地API服务(端口11434),可直接通过HTTP调用。
方法1. 用Curl快速测试
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-7b",
"prompt": "你好,请介绍你自己",
"stream": false
}'注:返回结果包含"response"字段,即AI生成的文本。
方法2. Python脚本调用
import requests
def ask_ai(prompt):
url = "http://localhost:11434/api/generate"
data = {
"model": "deepseek-r1:7b",
"prompt": prompt,
"stream": False
}
response = requests.post(url, json=data)
return response.json()["response"]
answer = ask_ai("如何用Python计算斐波那契数列?")
print(answer)
}'方法3. Python脚本调用
{
"model": "deepseek-r1:7b",
"prompt": "用一句话解释量子力学",
"stream": false
}点击发送,查看返回结果!


现在就可以愉快地使用了!!
2. 查看已安装模型
ollama list3. 删除模型
ollama rm deepseek-r1:7b4. 性能调优
通过Ollama,DeepSeek大模型的部署和调用变得前所未有的简单!无论是写代码、学知识还是日常问答,本地AI助手都能随叫随到。赶紧动手试试,解锁更多玩法吧!🚀