Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >Mac环境下ollama部署和体验

Mac环境下ollama部署和体验

作者头像
程序员欣宸
发布于 2024-05-26 06:30:14
发布于 2024-05-26 06:30:14
1.9K00
代码可运行
举报
文章被收录于专栏:实战docker实战docker
运行总次数:0
代码可运行
欢迎访问我的GitHub

这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos

关于ollama
  • ollama和LLM(大型语言模型)的关系,类似于docker和镜像,可以在ollama服务中管理和运行各种LLM,下面是ollama命令的参数,与docker管理镜像很类似,可以下载、删除、运行各种LLM
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command
  • 官网:https://ollama.com/
  • 非常简洁
本篇概览
  • 作为入门操作的笔记,本篇记录了部署和简单体验ollama的过程,并且通过docker部署了web-ui,尝试通过页面使用大模型
  • 本次操作的环境如下
  1. 电脑:macbook pro m1,Sonoma 14.4.1
  2. ollama:0.1.32
安装
  • 在官网首页点击Download即可下载,得到zip安装包,解压后就是应用程序了
  • 会提示是否移动到应用程序目录,回车确认
  • 打开后是个简单的页面
  • 完成安装,会有一个提示,告诉你如何安装指定模型
关于模型
  • ollama支持的全量模型在这里:https://ollama.com/library
  • 官方给出的部分模型

Model

Parameters

Size

下载命令

Llama 3

8B

4.7GB

ollama run llama3

Llama 3

70B

40GB

ollama run llama3:70b

Phi-3

3.8B

2.3GB

ollama run phi3

Mistral

7B

4.1GB

ollama run mistral

Neural Chat

7B

4.1GB

ollama run neural-chat

Starling

7B

4.1GB

ollama run starling-lm

Code Llama

7B

3.8GB

ollama run codellama

Llama 2 Uncensored

7B

3.8GB

ollama run llama2-uncensored

LLaVA

7B

4.5GB

ollama run llava

Gemma

2B

1.4GB

ollama run gemma:2b

Gemma

7B

4.8GB

ollama run gemma:7b

Solar

10.7B

6.1GB

ollama run solar

  • 另外需要注意的是本地内存是否充足,7B参数的模型需要8G内存,13B需要16G内存,33B需要32G内存
运行8B的Llama3
  • 我的mac笔记本内存16G,所以打算运行8B的Llama3,命令如下
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama run llama3
  • 第一次运行,因为没有模型文件,所以需要下载,等待下载中

- 下载完毕后就可以问答了

  • 退出的方法是输入/bye
Linux版本
  • 如果操作系统是Linux,安装命令如下
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
curl -fsSL https://ollama.com/install.sh | sh
  • 安装完成后还要启动
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama serve
webui
  • 如果电脑上装有docker,请执行以下命令来启动ollama的webui
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  • 出现登录页面,需要点击右下角的Sign up先注册
  • 完成注册后,第一次登录会出现特性介绍
  • 可以在这里修改系统语言
  • 接下来试试聊天功能,先是选择模型,由于刚才已经下载过模型了,这里只要选择即可,如下图
  • 然后就可以对话了
  • 在设置页面可以管理模型
  • 至此,最基础的操作已经完成,如果您正处于初步尝试阶段,希望本文可以给您一些参考
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2024-05-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
通过ollama+open webui可视化运行gemma
ollama是专为在Docker容器中部署LLM而设计的,简化了部署和管理流程,目前它支持的模型如下:
数据仓库晨曦
2024/03/06
8.6K0
通过ollama+open webui可视化运行gemma
Meta Llama3 大模型在 Mac 上的部署和运行
就在前不久,Meta 正式发布了最新版本的开源大模型 Llama3 ,是迄今为止能力最强的开源大模型。
音视频开发进阶
2024/04/25
4.9K0
Meta Llama3 大模型在 Mac 上的部署和运行
SpringAI+Ollama三部曲之一:极速体验
程序员欣宸
2024/05/26
9090
SpringAI+Ollama三部曲之一:极速体验
使用Ollama+OpenWebUI本地部署Gemma谷歌AI开放大模型完整指南
Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。它提供了一套简单的工具和命令,使任何人都可以轻松地启动和使用各种流行的LLM,例如GPT-3、Megatron-Turing NLG和WuDao 2.0。
神秘泣男子
2024/06/06
1.2K0
使用Ollama+OpenWebUI本地部署Gemma谷歌AI开放大模型完整指南
使用 Ollama框架 下载和使用 Llama3 AI大模型的完整指南
Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。它提供了一套简单的工具和命令,使任何人都可以轻松地启动和使用各种流行的LLM,例如GPT-3、Megatron-Turing NLG和WuDao 2.0。
神秘泣男子
2024/06/03
4.7K0
使用 Ollama框架 下载和使用 Llama3 AI大模型的完整指南
AI驱动TDSQL-C Serverless 数据库技术实战营-Vanna配合ollama分析TDSQL-C Serverless 数据库
经过这么长时间的迭代,大模型种类繁多,使用也越来越简单了,今天我们使用Vanna配合ollama本地大模型,基于TDSQL-C MYSQL Serverless构建智能数据库分析系统
用户11291471
2024/10/08
4010
跟着我,轻松在腾讯云轻量应用服务器搭建自己的大型语言模型!
1.Ollama 是一个基于 Go 语言开发的本地大模型运行框架!它可以帮助用户在本地快速运行大模型,通过简单的安装指令,可以用一条命令就在本地运行开源大型语言模型。
快乐的小白
2024/04/16
3K4
跟着我,轻松在腾讯云轻量应用服务器搭建自己的大型语言模型!
一行命令,本地、离线运行大模型
一句话概括:Ollama 是一个允许您在计算机上本地运行开源大语言模型(LLM)的工具
统计学家
2024/03/26
1.8K0
一行命令,本地、离线运行大模型
本机部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
本篇文章介绍在window系统下,安装Ollama并且安装gemma(谷歌大模型)、llama2(脸书大模型)、qwen(阿里大模型)等大模型的教程,实现类似免费ChatGPT的web界面
星哥玩云
2024/05/14
6.1K0
本机部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
大模型llm:Ollama部署llama3学习入门llm
Llama 3 是一个自回归语言模型(an auto-regressive language),它使用优化的 transformer 架构。调整后的版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF),以符合人类对有用性和安全性的偏好。
黄规速
2024/05/24
5.8K0
大模型llm:Ollama部署llama3学习入门llm
普通电脑也能跑大模型,三步搞定私人AI助手 | LLaMA-3本地部署小白攻略
“ 在你的电脑上运行一个强大的AI助手,它不仅能力超群,还把所有秘密都藏在你的硬盘里。好奇这是如何实现的吗?动动手,三分钟就可以完成LLaMA-3的本地部署!”
技术人生黄勇
2024/07/19
2.6K0
普通电脑也能跑大模型,三步搞定私人AI助手 | LLaMA-3本地部署小白攻略
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
之前在window下安装过 Ollama和OpenWebUI搭建本地的人工智能web项目(可以看我之前写的文章),无奈电脑硬件配置太低,用qwen32b就很卡,卡出PPT了,于是又找了一台机器安装linux系统,在linux系统下测试一下速度能否可以快一些。
星哥玩云
2024/05/18
6.2K0
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
用 NVIDIA Jetson 创建微软Phi3 聊天机器人
大部分人在面对大语言模型的最大困扰,就是缺乏足够的计算资源来使用这些功能强大的AI应用。
GPUS Lady
2024/05/06
4230
Ollama是什么?安装部署指南原创
此前写过2篇关于大模型思考的文章:《浅谈大模型时代的后台技术发展》、《AGI 时代的破局之道 》;对于大模型的本地部署和使用,下面我们了解一下。
后台技术汇
2024/09/21
5550
Ollama是什么?安装部署指南原创
Docker三分钟搞定LLama3开源大模型本地部署
LLaMA-3(Large Language Model Meta AI 3)是由Meta公司开发的大型开源生成式人工智能模型。它在模型结构上与前一代LLaMA-2相比没有大的变动。
Tinywan
2024/04/28
7.4K0
Docker三分钟搞定LLama3开源大模型本地部署
大模型——如何本地跑通一个大模型
这里主要借助两个开源项目 ollama 和 openwebui 这两个项目,来尝试本地跑通llama3.1 8b 、 mistral-nemo 12b 和 qwen2 7b 这些模型,再大的模型机器也撑不住了,机器配置如下:
思索
2024/09/23
3350
浅谈宇宙最强开源大模型Llama3如何应用
北京时间4月19日凌晨,Meta公司通过其官方网站宣布了Llama系列的最新开源大模型:Llama-3。
AIGC新知
2024/10/08
3360
浅谈宇宙最强开源大模型Llama3如何应用
使用Ollama部署deepseek大模型
我的显卡在Windows电脑上面 所以使用Windows的安装方式去安装 若你的显卡是在Linux上面 可以使用如下命令安装
小陈运维
2025/02/04
2.2K0
使用Ollama部署deepseek大模型
简单3步部署本地国产大模型DeepSeek大模型
DeepSeek是最近非常火的开源大模型,国产大模型 DeepSeek 凭借其优异的性能和对硬件资源的友好性,受到了众多开发者的关注。
星哥玩云
2025/02/06
4.7K0
简单3步部署本地国产大模型DeepSeek大模型
AI大眼萌 探索 AI 新世界:Ollama 使用指南【1】
在人工智能的浪潮中,Ollama 的出现无疑带来了一场革命。这款工具平台以其开创性的功能,简化了 AI 模型的开发与应用,让每一位爱好者都能轻松驾驭 AI 的强大力量。大家好,我是AI大眼萌,今天我们将带大家了解这款工具平台。
AI大眼萌
2024/06/22
1.4K0
AI大眼萌 探索 AI 新世界:Ollama 使用指南【1】
推荐阅读
相关推荐
通过ollama+open webui可视化运行gemma
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验