Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由

Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由

原创
作者头像
星哥玩云
发布于 2024-05-18 10:14:39
发布于 2024-05-18 10:14:39
7K00
代码可运行
举报
文章被收录于专栏:开源部署开源部署
运行总次数:0
代码可运行

之前在window下安装过 Ollama和OpenWebUI搭建本地的人工智能web项目(可以看我之前写的文章),无奈电脑硬件配置太低,用qwen32b就很卡,卡出PPT了,于是又找了一台机器安装linux系统,在linux系统下测试一下速度能否可以快一些。

系统硬件介绍

Ubuntu 22.04.4 LTS

CPU: i5-10400F

内存:32G

硬盘: 512G SSD

显卡: NVIDIA GeForce GTX 1060 6GB

内网IP: 192.168.1.21

下载 Ollama

访问下载: https://ollama.com/

安装Ollama

方法1、命令行下载安装(耗时长)

安装命令:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ sudo apt  install curl
​
$ curl -fsSL https://ollama.com/install.sh | sh

缺点: 国内网络环境要等很久

方法2 , 手动下载安装

1、手动下载 https://ollama.com/install.sh 这个文件

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ sudo mkdir ollama
cd ollama
$ sudo wget https://ollama.com/install.sh

2、注释掉下载部分 curl xxxx 手动下载ollama-linux-{ARCH}

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ sudo vim install.sh
​
修改文件:
status "Downloading ollama..."
#curl --fail --show-error --location --progress-bar -o $TEMP_DIR/ollama "https://ollama.com/download/ollama-linux-${ARCH}${VER_PARAM}"

我电脑intel/amd cpu 所以 {ARCH} = amd64 浏览器下载 https://ollama.com/download/ollama-linux-amd64 当然访问国外网站速度更快哟。 放在 install.sh 同目录下

3、注释掉 #$SUDO install -o0 -g0 -m755 $TEMP_DIR/ollama $BINDIR/ollama

改为下面一行:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ sudo vim install.sh
​
修改文件:
status "Installing ollama to $BINDIR..."
$SUDO install -o0 -g0 -m755 -d $BINDIR
#$SUDO install -o0 -g0 -m755 $TEMP_DIR/ollama $BINDIR/ollama
$SUDO install -o0 -g0 -m755 ./ollama-linux-amd64  $BINDIR/ollama

4 运行 install.sh ,安装

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sh  ./install.sh

重启电脑

配置模型下载路径

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
cd 
sudo vim .bashrc
​
sudo mkdir -p /home/star/ollama/ollama_cache

然后添加一行 配置 OLLAMA_MODELS 环境变量自定义路径

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
### ollama model dir 改为自己的路径
# export OLLAMA_MODELS=/path/ollama_cache
export OLLAMA_MODELS=/home/star/ollama/ollama_cache
​

如果开始没配置OLLAMA_MODELS ,默认路径是/usr/share/ollama/.ollama/models

启动ollama服务

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# ollama --help
Large language model runner
​
Usage:
  ollama [flags]
  ollama [command]
​
Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command
​
Flags:
  -h, --help      help for ollama
  -v, --version   Show version information
​
Use "ollama [command] --help" for more information about a command.

提示

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
star@star-ai:~$ ollama serve
Couldn't find '/home/star/.ollama/id_ed25519'. Generating new private key.
Your new public key is: 
​
ssh-ed25519 AAAAC3NzaC1lZDI1NTE5AAAAIPmYsSi6aIsyhC4EHEsCdBtSOqnfKmNVSf0Ofz9sVzyB
​
Error: listen tcp 127.0.0.1:11434: bind: address already in use
​

说明已经运行

修改ollama端口

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
vim /etc/systemd/system/ollama.service
在 [Service] 下添加  Environment="OLLAMA_HOST=0.0.0.0"
​
cat /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target
​
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin"
Environment="OLLAMA_HOST=0.0.0.0"[Install]
WantedBy=default.target

重新加载配置,重启ollama

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
systemctl daemon-reload
​
systemctl restart ollama
​
关闭服务
systemctl stop ollama
启动服务
systemctl start ollama

运行qwen大模型

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama run  qwen

安装docker

一键安装脚本

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo curl -sSL https://get.docker.com/ | sh
​
安装完成之后
star@star-ai:~$ sudo docker --version
Docker version 26.1.3, build b72abbb
​

安装Open WebUI

Open WebUI是一个用于在本地运行大型语言模型(LLM)的开源Web界面。

参考: https://docs.openwebui.com/getting-started/#quick-start-with-docker-

docker安装open-webui

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ sudo docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ sudo docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

改国内的地址

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ sudo docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always  registry.cn-shenzhen.aliyuncs.com/funet8/open-webui:cuda

报错:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always  registry.cn-shenzhen.aliyuncs.com/funet8/open-webui:cuda
254b47e7994b2f0087ce0058918621523b39cf9b0e89018777c0cf98943ba2d1
docker: Error response from daemon: could not select device driver "" with capabilities: [[gpu]].

ubuntu识别不了我的显卡

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ sudo nvidia-smi
Fri May 17 18:37:15 2024       
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 550.54.15              Driver Version: 550.54.15      CUDA Version: 12.4     |
|-----------------------------------------+------------------------+----------------------+
| GPU  Name                 Persistence-M | Bus-Id          Disp.A | Volatile Uncorr. ECC |
| Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
|                                         |                        |               MIG M. |
|=========================================+========================+======================|
|   0  NVIDIA GeForce GTX 1060 6GB    Off |   00000000:01:00.0 Off |                  N/A |
| 40%   33C    P8              6W /  120W |      65MiB /   6144MiB |      0%      Default |
|                                         |                        |                  N/A |
+-----------------------------------------+------------------------+----------------------+
                                                                                         
+-----------------------------------------------------------------------------------------+
| Processes:                                                                              |
|  GPU   GI   CI        PID   Type   Process name                              GPU Memory |
|        ID   ID                                                               Usage      |
|=========================================================================================|
|    0   N/A  N/A      1030      G   /usr/lib/xorg/Xorg                             56MiB |
|    0   N/A  N/A      1109      G   /usr/bin/gnome-shell                            4MiB |
+-----------------------------------------------------------------------------------------+

安装nvidia-container-toolkit: 确保你已经安装了nvidia-container-toolkit,并配置Docker以使用该工具包:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit
sudo systemctl restart docker

检查Docker默认运行时配置: 确保Docker的默认运行时设置为nvidia。编辑Docker的配置文件(通常位于/etc/docker/daemon.json),并添加或修改如下内容:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo vim /etc/docker/daemon.json
添加:
​
{
  "default-runtime": "nvidia",
  "runtimes": {
    "nvidia": {
      "path": "nvidia-container-runtime",
      "runtimeArgs": []
    }
  }
}
编辑完文件后,重启Docker服务:
sudo systemctl restart docker
​

检查NVIDIA Container Runtime兼容性: 确保你的NVIDIA Container Runtime版本与Docker版本兼容。可以通过以下命令查看版本:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo docker version
​
nvidia-container-runtime --version
​

完成上述步骤后,再次尝试运行你的Docker命令。如果问题仍然存在,请提供更多的系统信息和日志,以便进一步诊断问题。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo docker start open-webui

登录open-webui

用IP+端口访问

修改语言为中文

OpenWebUI默认是英文的,所以修改语言为简体中文。

OpenWebUI不能连接Ollama

报错:WebUI could not connect to ollama

修改地址:http://192.168.1.21:11434

再下载千问的模型 qwen

下载大模型

ollama官方的模型仓库参见这里:https://ollama.com/library

根据自己的CPU和GPU选择合适的大模型,否则会很卡。

比如测试用的1060使用qwen:72b就很卡,问一个问题要等很久,几乎是不能用的状态。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
阿里巴巴的大模型:
ollama run  qwen
ollama run qwen:14b
ollama run qwen:32b
ollama run qwen:72b
ollama run qwen:110b   # 110b 表示该模型包含了 1100 亿(110 billion)个参数
​
​
脸书大模型:
ollama run llama2
ollama run llama3
ollama run llama3:8b
​
谷歌的大模型:
ollama run gemma
​
微软的大模型
ollama run phi3
​

删除模型

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
显示所有模型
# ollama list
​
删除模型
# ollama rm llama3:latest

ubuntu查看GPU负载

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
nvidia-smi

确实在ubuntu20.04系统下确实比window10系统使用Ollama更加流畅。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
本机部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
本篇文章介绍在window系统下,安装Ollama并且安装gemma(谷歌大模型)、llama2(脸书大模型)、qwen(阿里大模型)等大模型的教程,实现类似免费ChatGPT的web界面
星哥玩云
2024/05/14
6.3K0
本机部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
使用Ollama部署deepseek大模型
我的显卡在Windows电脑上面 所以使用Windows的安装方式去安装 若你的显卡是在Linux上面 可以使用如下命令安装
小陈运维
2025/02/04
2.2K0
使用Ollama部署deepseek大模型
使用Ollama部署deepseek大模型
连接到另一台服务器上的Ollama时,请将OLLAMA_BASE_URL更改为服务器的URL:
小陈运维
2025/01/26
3K0
DeepSeek r1本地部署手把手教程
https://developer.nvidia.com/rdp/cudnn-archive
蛋黄
2025/03/03
2500
简单3步部署本地国产大模型DeepSeek大模型
DeepSeek是最近非常火的开源大模型,国产大模型 DeepSeek 凭借其优异的性能和对硬件资源的友好性,受到了众多开发者的关注。
星哥玩云
2025/02/06
5K0
简单3步部署本地国产大模型DeepSeek大模型
Windows本地部署Ollama+qwen本地大语言模型Web交互界面并实现公网访问
本文主要介绍如何在Windows系统快速部署Ollama开源大语言模型运行工具,并安装Open WebUI结合cpolar内网穿透软件,实现在公网环境也能访问你在本地内网搭建的大语言模型运行环境。
屿小夏
2024/04/18
13.6K0
Windows本地部署Ollama+qwen本地大语言模型Web交互界面并实现公网访问
大模型——如何本地跑通一个大模型
这里主要借助两个开源项目 ollama 和 openwebui 这两个项目,来尝试本地跑通llama3.1 8b 、 mistral-nemo 12b 和 qwen2 7b 这些模型,再大的模型机器也撑不住了,机器配置如下:
思索
2024/09/23
3830
deepseek本地部署简要教程
网址:Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载
吴晓阳
2025/02/13
7240
deepseek本地部署简要教程
使用Ollama和Open WebUI管理本地开源大模型的完整指南
Open WebUI 是一种基于 Web 的用户界面,用于管理和操作各种本地和云端的人工智能模型。它提供了一个直观的图形化界面,使用户可以方便地加载、配置、运行和监控各种 AI 模型,而无需编写代码或使用命令行界面。
神秘泣男子
2024/06/03
25.1K0
使用Ollama和Open WebUI管理本地开源大模型的完整指南
DeepSeek-容器化(Docker)部署vLLM和Open WebUI
前面小节我们通过conda创建虚拟Python环境,实现vLLM和OpenWebUI的配置,但是这个安装部署会非常繁琐非费时间。我们今天将使用容器来部署。环境还是使用ubuntu20.4,复用上个环境已经安装GPU驱动和模型文件。
运维小路
2025/03/06
3.4K0
DeepSeek-容器化(Docker)部署vLLM和Open WebUI
Ollama 安装与使用指南笔记
在探索大模型的道路上,Ollama 作为一款开源项目为我们提供了很大的便利。下面将详细介绍它的安装与使用,并补充一些常见问题及解决方法。
ceagle
2024/12/30
4.9K0
Linux内网离线安装Ollama
在线安装地址https://ollama.com/download选择服务器系统,按照步骤完成安装
IT小马哥
2024/08/15
7.1K0
Linux内网离线安装Ollama
通过ollama+open webui可视化运行gemma
ollama是专为在Docker容器中部署LLM而设计的,简化了部署和管理流程,目前它支持的模型如下:
数据仓库晨曦
2024/03/06
8.8K0
通过ollama+open webui可视化运行gemma
容器环境下部署Open-webui、One-api、Ollama、Deepseek
浏览器访问 http://ip:3000 (注意:首次登录不要去注册,直接登录,默认超管账号:root,密码:123456),登录后直接跳转到更新用户信息界面修改后再重新登陆,如下截图:
用户2141488
2025/03/07
6281
本地部署AI大模型DeepSeek
在刚刚过去的春节假期,AI界可一点都不平静,一款来自中国的AI应用 DeepSeek,如同横空出世的黑马,迅速在全球范围内掀起了波澜。先是在美区App Store免费榜中力压ChatGPT,成功登顶,成为无数用户追捧的对象;而后又引发了美国科技股的剧烈震荡,英伟达市值一夜之间蒸发数千亿美元,整个科技板块都因之而颤抖。这一系列令人咋舌的事件,让DeepSeek这个名字,瞬间成为了全球AI领域的焦点。
wangmcn
2025/02/10
3490
本地部署AI大模型DeepSeek
大模型llm:Ollama部署llama3学习入门llm
Llama 3 是一个自回归语言模型(an auto-regressive language),它使用优化的 transformer 架构。调整后的版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF),以符合人类对有用性和安全性的偏好。
黄规速
2024/05/24
5.9K0
大模型llm:Ollama部署llama3学习入门llm
【5分钟玩转Lighthouse】手把手部署DeepSeek R1模型
近期,AI领域一颗新星冉冉升起,它就是备受瞩目的DeepSeek模型。凭借其强大的自然语言处理能力和广泛的应用场景,DeepSeek迅速在科技圈掀起一股热潮,成为开发者们争相研究和应用的对象。从智能客服到内容创作,从代码生成到数据分析,DeepSeek展现出的潜力令人惊叹。
风之泪
2025/02/04
9460
【5分钟玩转Lighthouse】手把手部署DeepSeek R1模型
使用Ollama+OpenWebUI本地部署Gemma谷歌AI开放大模型完整指南
Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。它提供了一套简单的工具和命令,使任何人都可以轻松地启动和使用各种流行的LLM,例如GPT-3、Megatron-Turing NLG和WuDao 2.0。
神秘泣男子
2024/06/06
1.3K0
使用Ollama+OpenWebUI本地部署Gemma谷歌AI开放大模型完整指南
详解几种常见本地大模型个人知识库工具部署、微调及对比选型(2)
这里首先介绍的是大模型侧的工具安装部署实践,至于为什么先提大模型侧后提知识库侧呢?这是因为大模型通常是知识库操作和应用的基础与核心,是提供智能决策的引擎。它们构建了理解和生成文本、图像、语音等多模态反应的基础能力,是整个智能应用的心脏,同时,由于这次主题是本地大模型个人知识库,所以大模型的安装、配置、优化和部署是首要步骤,也是确保知识库工具能够顺畅运行的基石。
zhouzhou的奇妙编程
2024/06/12
4.5K0
Mac环境下ollama部署和体验
程序员欣宸
2024/05/26
2.1K0
Mac环境下ollama部署和体验
推荐阅读
相关推荐
本机部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验