Loading [MathJax]/jax/output/CommonHTML/config.js
部署DeepSeek模型,进群交流最in玩法!
立即加群
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >RockyLinux9.5下使用ollama搭建本地AI大模型DeepSeek

RockyLinux9.5下使用ollama搭建本地AI大模型DeepSeek

作者头像
yuanfan2012
发布于 2025-02-08 07:26:17
发布于 2025-02-08 07:26:17
51401
代码可运行
举报
文章被收录于专栏:WalkingCloudWalkingCloud
运行总次数:1
代码可运行

RockyLinux9.5下使用ollama搭建本地AI大模型DeepSeek

一、安装ollama Linux版本

https://ollama.com/download/linux

可以使用一键安装脚本进行安装ollama

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
curl -fsSL https://ollama.com/install.sh | sh

我这边由于网络原因,使用一键安装脚本速度太慢

采用半手动的方式安装

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
https://github.com/ollama/ollama/blob/main/docs/linux.md

参考上面的Manual install的部分

先使用下载 https://ollama.com/download/ollama-linux-amd64.tgz 然后修改https://ollama.com/install.sh 脚本中一小段,进行半自动安装ollama

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
curl -o ollama_install.sh https://ollama.com/install.sh
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
vim ollama_install.sh

将如下三行改为
#curl --fail --show-error --location --progress-bar \
#    "https://ollama.com/download/ollama-linux-${ARCH}.tgz${VER_PARAM}" | \
    $SUDO tar -xzf ollama-linux-amd64.tgz -C "$OLLAMA_INSTALL_DIR"

意思是不从网络上下载,只接本地解压

然后执行安装脚本

这时Ollama API监听在127.0.0.1上

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
The Ollama API is now available at 127.0.0.1:11434

vim 修改/etc/systemd/system/ollama.service 在如下位置添加如下行

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
Environment="OLLAMA_HOST=0.0.0.0:11434"
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
systemctl daemon-reload
systemctl restart ollama

firewall-cmd --permanent --zone=public --add-port=11434/tcp
firewall-cmd --reload
 
ollama --version

验证olloma是否安装成功

二、使用ollma拉取deepseek模型

https://ollama.com/library/deepseek-r1

这里我选取7b版本 约4.7Gb

ollama run deepseek-r1:7b

三、docker部署open-webui图形化界面接入deepseek

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
yum install -y yum-utils
yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
yum install docker-ce docker-ce-cli containerd.io
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
cat >> /etc/docker/daemon.json << EOF
{
"log-driver": "json-file",
"log-opts": {
"max-file": "3",
"max-size": "500m"
},
"data-root":"/data/docker", 
"bip": "10.112.0.1/24"
}
EOF

systemctl enable docker.service
systemctl restart docker.service

运行open-webui

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker run -d -p 80:8080 -e OLLAMA_BASE_URL=http://192.168.31.98:11434 -v /data/open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

docker logs -f open-webui

等待出现INFO: Uvicorn running on http://0.0.0.0:8080 (Press CTRL+C to quit)的日志时 即可浏览器打开open-webui

需要等待一段时间后,出现如下界面

设置好账号密码后 即可正常用open-webui调用用本地的deepseek AI大模型

接下来进行对话

可以看到思考时CPU已经打满了,由于是测试,未使用GPU显卡

最终的效果如下

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-02-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 WalkingCloud 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
使用Ollama部署deepseek大模型
我的显卡在Windows电脑上面 所以使用Windows的安装方式去安装 若你的显卡是在Linux上面 可以使用如下命令安装
小陈运维
2025/02/04
2.2K0
使用Ollama部署deepseek大模型
使用Ollama部署deepseek大模型
连接到另一台服务器上的Ollama时,请将OLLAMA_BASE_URL更改为服务器的URL:
小陈运维
2025/01/26
2.9K0
ubuntu22 编译安装docker,和docker容器方式安装 deepseek 和 webUI 配置模型
eisc
2025/02/10
5121
ubuntu22 编译安装docker,和docker容器方式安装 deepseek 和 webUI 配置模型
Ollama 安装与使用指南笔记
在探索大模型的道路上,Ollama 作为一款开源项目为我们提供了很大的便利。下面将详细介绍它的安装与使用,并补充一些常见问题及解决方法。
ceagle
2024/12/30
4.8K0
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
之前在window下安装过 Ollama和OpenWebUI搭建本地的人工智能web项目(可以看我之前写的文章),无奈电脑硬件配置太低,用qwen32b就很卡,卡出PPT了,于是又找了一台机器安装linux系统,在linux系统下测试一下速度能否可以快一些。
星哥玩云
2024/05/18
6.9K0
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
TencentOS Server 3.1 部署 DeepSeek-R1-7B
DeepSeek是这段时间最热门的话题之一,其先进的AI技术可以实现低成本而高质量的推理,使企业可以低成本的使用优秀的AI推理能力,为企业业务带来更多的AI助力。
Sync
2025/02/16
2220
【零门槛教程】3分钟使用腾讯云Lighthouse轻量应用服务器部署DeepSeek R1模型
在人工智能技术爆发式发展的今天,DeepSeek凭借其强大的自然语言处理能力成为开发者新宠。本文将手把手教学如何使用腾讯云Lighthouse轻量应用服务器部署DeepSeek。
宁子
2025/03/21
2270
【零门槛教程】3分钟使用腾讯云Lighthouse轻量应用服务器部署DeepSeek R1模型
基于Ollama的DeepSeek R1本地部署全流程指南:从零到推理实战
在人工智能技术快速发展的今天,本地化部署大型语言模型(LLM)已成为开发者与研究人员的重要需求。本文将详细介绍如何通过Ollama框架实现DeepSeek R1模型的本地部署,涵盖从硬件选型到推理实战的全流程,并提供针对不同场景的优化方案。
Towserliu
2025/02/06
11K0
基于Ollama的DeepSeek R1本地部署全流程指南:从零到推理实战
容器环境下部署Open-webui、One-api、Ollama、Deepseek
浏览器访问 http://ip:3000 (注意:首次登录不要去注册,直接登录,默认超管账号:root,密码:123456),登录后直接跳转到更新用户信息界面修改后再重新登陆,如下截图:
用户2141488
2025/03/07
5651
macOS 运行 DeepSeek 大模型!看看 Ollama 和 Open WebUI如何配合
2025年1月20日,杭州的一家公司开源推理模型 DeepSeek-R1,一经推出就震撼了世界。
Mintimate
2025/02/17
1.4K1
macOS 运行 DeepSeek 大模型!看看 Ollama 和 Open WebUI如何配合
大模型llm:Ollama部署llama3学习入门llm
Llama 3 是一个自回归语言模型(an auto-regressive language),它使用优化的 transformer 架构。调整后的版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF),以符合人类对有用性和安全性的偏好。
黄规速
2024/05/24
5.9K0
大模型llm:Ollama部署llama3学习入门llm
【5分钟玩转Lighthouse】手把手部署DeepSeek R1模型
近期,AI领域一颗新星冉冉升起,它就是备受瞩目的DeepSeek模型。凭借其强大的自然语言处理能力和广泛的应用场景,DeepSeek迅速在科技圈掀起一股热潮,成为开发者们争相研究和应用的对象。从智能客服到内容创作,从代码生成到数据分析,DeepSeek展现出的潜力令人惊叹。
风之泪
2025/02/04
8910
【5分钟玩转Lighthouse】手把手部署DeepSeek R1模型
简单3步部署本地国产大模型DeepSeek大模型
DeepSeek是最近非常火的开源大模型,国产大模型 DeepSeek 凭借其优异的性能和对硬件资源的友好性,受到了众多开发者的关注。
星哥玩云
2025/02/06
5K0
简单3步部署本地国产大模型DeepSeek大模型
别被 “一键部署” 骗了!使用Ollama本地部署DeepSeek 避坑指南
最近最火的莫过于DeepSeek,现在网上关于 AI 模型部署的文章一抓一大把,动不动就是 “一键部署,轻松上手”、“30 分钟搭好一个本地能跑起来的大模型”。可现实是,当你真上手用 Ollama 搭建 DeepSeek 模型时,那简直就是踩坑大冒险!今天咱就来好好唠唠那些坑,帮你顺利搭建属于自己的 DeepSeek。
章为忠学架构
2025/04/04
1.1K0
别被 “一键部署” 骗了!使用Ollama本地部署DeepSeek 避坑指南
教你 1 小时搭建属于自己的 AI 知识库,Ollama + MaxKB 超详细教程略
我们经常为海量文档找不到关键内容而烦恼,那么可以使用AI 帮忙轻松检索个人笔记,并且还能优化我们的文章,以我们的风格生成文章。今天,我来教你用 Ollama 和 MaxKB 搭建一个属于自己的 AI 知识库,让你的知识随时为你服务. Ollama 作为轻量级模型管理平台,可以快速安装、运行多种 AI 模型,如 DeepSeek-R1、Llama3 等。本文将手把手教你如何:
神的孩子都在歌唱
2025/03/29
9150
教你 1 小时搭建属于自己的 AI 知识库,Ollama + MaxKB 超详细教程略
本地部署DeepSeek-R1大模型
想不依赖网络、零门槛运行AI大模型?Ollama帮你轻松实现!本文手把手教你部署DeepSeek模型,并通过本地API实现对话、编程、数据分析,小白也能秒变AI玩家!🌟
全栈开发日记
2025/02/10
1.1K0
本地部署DeepSeek-R1大模型
Mac环境下ollama部署和体验
程序员欣宸
2024/05/26
2.1K0
Mac环境下ollama部署和体验
不要花钱买课了!3 分钟教你自己本地部署 DeepSeek-R1
最近在群里看到个离谱的事——有人居然在淘宝、闲鱼等平台上收钱帮人部署 DeepSeek-R1!更离谱的是,居然还有不少人掏钱买这个服务。说实话,这种割小白的操作真的让人无语。
老码小张
2025/02/05
8330
不要花钱买课了!3 分钟教你自己本地部署 DeepSeek-R1
Deepseek 本地部署“网页版”与“软件版”超级详细教学(deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studi
近期,人工智能领域迎来了一股新的热潮,DeepSeek作为一款备受瞩目的开源语言模型,凭借其卓越的性能和广泛的应用场景,迅速在全球范围内引起了广泛关注。从技术社区到商业领域,DeepSeek的热度不断攀升,甚至有“挤爆”的趋势。这不仅反映了其强大的技术实力,也体现了市场和用户对其的高度期待。
久绊A
2025/02/20
2.5K0
DeepSeek r1本地部署手把手教程
https://developer.nvidia.com/rdp/cudnn-archive
蛋黄
2025/03/03
2400
推荐阅读
相关推荐
使用Ollama部署deepseek大模型
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验