Loading [MathJax]/jax/output/CommonHTML/config.js
部署DeepSeek模型,进群交流最in玩法!
立即加群
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >在国产系统上部署开源大模型

在国产系统上部署开源大模型

作者头像
云水木石
发布于 2024-07-18 09:45:23
发布于 2024-07-18 09:45:23
36700
代码可运行
举报
运行总次数:0
代码可运行

本地部署大模型的方法很多,一般选择 docker 容器部署,或者使用本地服务框架。这里介绍使用本地服务框架 Ollama 部署。

Ollama 大模型框架

Ollama 是一个新兴的大模型框架,旨在为机器学习人工智能研究提供高效、灵活和可扩展的解决方案。随着深度学习模型的复杂性和规模不断增加,开发者和研究人员需要更强大的工具来处理大规模数据和复杂的模型架构。Ollama 正是在这种需求下应运而生的。

Ollama 的核心特点

  1. 高效计算:Ollama 采用先进的分布式计算技术,可以在多 GPU 、多节点环境中高效运行。这使得它能够处理大规模数据集和复杂的模型训练任务,大大缩短了训练时间。
  2. 灵活性:Ollama 支持多种深度学习框架,如 TensorFlow、PyTorch 等,开发者可以根据项目需要选择最合适的工具。同时,Ollama 还提供了丰富的 API 和库,方便用户进行自定义开发和扩展。
  3. 可扩展性:Ollama 具有强大的扩展能力,可以轻松应对模型和数据规模的增长。无论是初创公司的小型项目,还是大企业的大型应用,Ollama 都能提供稳定和高效的支持。
  4. 易用性:Ollama 注重用户体验,提供了简洁明了的用户界面和详细的文档说明。即使是没有深厚技术背景的用户,也可以快速上手,利用 Ollama 进行模型训练和部署。

Ollama 安装与运行

Deepin 系统下,安装 Ollama 非常简单,只需要如下命令:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ curl -fsSL https://ollama.com/install.sh | sh
>>> Downloading ollama...
######################################################################## 100.0%-=O=#  #   #   #               ######################################################################## 100.0%
>>> Installing ollama to /usr/local/bin...
请输入密码

Ollama 默认会安装在 /usr/local/bin 目录下,安装完毕之后,可以在命令行运行 ollama,如果不知道有哪些命令,可以从 ollama help 开始:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
(base) alex@alex-deepin-os:~$ ollama help
Large language model runner

Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.

可以看到,ollama 的命令行参数和 docker 有些相似。启动一个大模型非常简单,比如我想运行 gemma2 27b 参数的大模型:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
(base) alex@alex-deepin-os:~$ ollama run gemma2:27b
pulling manifest 
pulling d7e4b00a7d7a...   4% ▕█                                             ▏ 655 MB/ 15 GB 

ollama 会自动完成模型文件的下载,容器的创建,并运行起来。ollama 本身提供了命令行交互接口。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
(base) alex@alex-deepin-os:~$ ollama run gemma2
>>> Send a message (/? for help)

此外,Ollama 还提供了和 OpenAI API 兼容的接口服务,本地服务的地址为:

http://127.0.0.1:11434

配置 UOS AI

添加 UOS AI 账号,模型类型还是选择自定义,API Key 不用填,模型名就填写 ollama 运行的大模型名,比如 gemma2,如果运行的是 gemma2 27b 版本,就填写 gemma2:27b,API 地址填写 http://127.0.0.1:11434/v1

配置完成后,在下拉框中选择刚配置的账号。

接下来就可以愉快的和 AI 对话了。

我使用的是 Google 的 Gemma2 9b 大模型,速度还挺快。

如果你想尝试其它的大模型,可以去 ollama 的模型仓库看看。

https://ollama.com/library

里面收录了很多大模型,比如 llama3、qwen2、deepseek-coder-v2 等。

小结

写到这里,是不是感觉到在 Deepin 系统上部署大模型太简单了?是的,各种服务框架的出现,让我们不用手写代码就能部署大模型,其实本地服务框架远不止 ollama,还有 FastAPI、Streamlit 等等众多框架,甚至还有更多的高级框架,如 Dify,提供的功能更多更强。让我们慢慢探索吧!

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-07-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 云水木石 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
本地大模型部署指南:Ollama+Llama3.2从入门到API调用
本文来介绍一下怎么下载 Ollama 并部署 AI 大模型(DeepSeek-R1、Llama 3.2 等)。通过 Ollama 这一开源的大语言模型服务工具,你就可以在自己的电脑上跑其它开源的 AI 模型。接下来,我们将分步骤说明如何完成下载和安装,以便你能够轻松地与 AI 开展对话。
用户8721171
2025/03/13
8570
Ollama 本地CPU部署开源大模型
如 Facebook的llama3, 谷歌的gemma, 微软的phi3,阿里的qwen2 等模型。
lyhue1991
2024/06/26
2.5K0
Ollama 本地CPU部署开源大模型
LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发
Ollama 是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。,这是 Ollama 的官网地址:https://ollama.com/
汀丶人工智能
2024/08/17
1.4K0
LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发
使用 Ollama 自建大模型并对接第三方平台二次分发盈利
随着AI不断的发展,各大厂商都公开了很多模型,那么我们自己是否可以在本地运行起这些模型呢,答案是肯定的!今天带给大家3分钟使用Ollama快速搭建环境运行本地大模型,支持主流的Lama 3, Phi 3, Mistral, Gemma等等大模型,同时支持主流操作系统,不管你是Mac还是Linux更或者是Windows,哪怕你没有强大的GPU,也可以通过CPU进行体验学习。
Lcry
2024/07/17
2.8K0
使用 Ollama 自建大模型并对接第三方平台二次分发盈利
普通电脑也能跑大模型,三步搞定私人AI助手 | LLaMA-3本地部署小白攻略
“ 在你的电脑上运行一个强大的AI助手,它不仅能力超群,还把所有秘密都藏在你的硬盘里。好奇这是如何实现的吗?动动手,三分钟就可以完成LLaMA-3的本地部署!”
技术人生黄勇
2024/07/19
2.6K0
普通电脑也能跑大模型,三步搞定私人AI助手 | LLaMA-3本地部署小白攻略
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
之前在window下安装过 Ollama和OpenWebUI搭建本地的人工智能web项目(可以看我之前写的文章),无奈电脑硬件配置太低,用qwen32b就很卡,卡出PPT了,于是又找了一台机器安装linux系统,在linux系统下测试一下速度能否可以快一些。
星哥玩云
2024/05/18
6.3K0
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
Ollama是什么?安装部署指南原创
此前写过2篇关于大模型思考的文章:《浅谈大模型时代的后台技术发展》、《AGI 时代的破局之道 》;对于大模型的本地部署和使用,下面我们了解一下。
后台技术汇
2024/09/21
5720
Ollama是什么?安装部署指南原创
在 Kubernetes 上部署 llama3
Ollama 是一个运行大模型的工具,可以看成是大模型领域的 Docker,可以下载所需的大模型并暴露 API。
imroc
2024/04/30
9330
在 Kubernetes 上部署 llama3
AI智能体研发之路-工程篇(三):大模型推理服务框架Ollama一键部署
身处2024年,大模型技术从底层模型到AI应用都卷的要命,我们可以说是幸运的,也可以是幸福的,当然,学习的路上,不停的追赶,必定是疲惫的。分享一些丝滑的大模型技术栈内的项目,让大家疲惫并快乐着。
LDG_AGI
2024/08/13
1.2K0
AI智能体研发之路-工程篇(三):大模型推理服务框架Ollama一键部署
AI大眼萌 探索 AI 新世界:Ollama 使用指南【1】
在人工智能的浪潮中,Ollama 的出现无疑带来了一场革命。这款工具平台以其开创性的功能,简化了 AI 模型的开发与应用,让每一位爱好者都能轻松驾驭 AI 的强大力量。大家好,我是AI大眼萌,今天我们将带大家了解这款工具平台。
AI大眼萌
2024/06/22
1.4K0
AI大眼萌 探索 AI 新世界:Ollama 使用指南【1】
SpringAI+Ollama三部曲之一:极速体验
程序员欣宸
2024/05/26
9290
SpringAI+Ollama三部曲之一:极速体验
大模型llm:Ollama部署llama3学习入门llm
Llama 3 是一个自回归语言模型(an auto-regressive language),它使用优化的 transformer 架构。调整后的版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF),以符合人类对有用性和安全性的偏好。
黄规速
2024/05/24
5.8K0
大模型llm:Ollama部署llama3学习入门llm
谷歌这次确实有诚意,性能翻倍
AI赛道上,科技巨头们激烈角逐。前脚有GPT-4o问世,后脚就出现了Claude 3.5 Sonnet。如此激烈的争斗中,谷歌虽然发力较晚,但在短时间内就能有显著的能力跟进,可见其技术发展与创新的潜力。
统计学家
2024/07/06
1420
谷歌这次确实有诚意,性能翻倍
轻松在本地部署 DeepSeek 蒸馏模型并无缝集成到你的 IDE
免费榜单双双登顶,超越了长期占据榜单的 GPT,这一突破性进展引发了投资者的广泛关注,甚至导致英伟达股价大幅下跌。从那时起,
陈明勇
2025/02/01
4.5K13
用香橙派AIpro部署大模型、安装宝塔搭建私有随身WEB开发环境
Orange Pi AI Pro 开发板是香橙派联合华为精心打造的高性能 AI 开发板,其搭载了昇腾 AI 处理器,可提供 8TOPS INT8 的计算能力,内存提供了 8GB 和 16GB两种版本。可以实现图像、视频等多种数据分析与推理计算,可广泛用于教育、机器人、无人机等场景。
星哥玩云
2024/05/29
8010
用香橙派AIpro部署大模型、安装宝塔搭建私有随身WEB开发环境
Mac环境下ollama部署和体验
程序员欣宸
2024/05/26
1.9K0
Mac环境下ollama部署和体验
使用 Gemma 2 构建 RAG的全过程( Ollama 或 Hugginface )
没错,这两天关于Gemma2 9B、27B开源的消息又刷屏了,如果你还不知道的话,可以搜搜看看,还是挺不错的。
AI进修生
2024/12/02
1890
使用 Gemma 2 构建 RAG的全过程( Ollama 或 Hugginface )
基于 Deepseek LLM 本地知识库搭建开源方案(AnythingLLM、Cherry、Ragflow、Dify)认知
LLM 本身只是一些 神经网络参数, 就拿 DeepSeek-R1 来讲,模型本身存储了 权重矩阵,以及 混合专家(MoE)架构, 实际运行起来需要行业级别的服务器配置, 消费级别的个人电脑不能直接运行,实际还涉及到硬件适配,需手动配置 CUDA/PyTorch 环境,编写分布式推理代码,处理量化与内存溢出问题
山河已无恙
2025/02/25
1.4K0
基于 Deepseek LLM 本地知识库搭建开源方案(AnythingLLM、Cherry、Ragflow、Dify)认知
使用 Ollama 在 Windows 环境部署 DeepSeek 大模型实战指南
👋 你好,我是 Lorin 洛林,一位 Java 后端技术开发者!座右铭:Technology has the power to make the world a better place.
Lorin 洛林
2025/02/05
3.5K0
使用 Ollama 在 Windows 环境部署 DeepSeek 大模型实战指南
无缝融入,即刻智能[一]:Dify-LLM大模型平台,零编码集成嵌入第三方系统,42K+星标见证专属智能方案
Dify,一款引领未来的开源大语言模型(LLM)应用开发平台,革新性地融合了后端即服务(Backend as a Service,BaaS)与LLMOps的精髓,为开发者铺设了一条从创意原型到高效生产的快车道。其设计旨在打破技术壁垒,让非技术背景的用户也能轻松参与至AI应用的构思与数据运营之中,共同塑造智能未来。
汀丶人工智能
2024/08/17
2.7K0
无缝融入,即刻智能[一]:Dify-LLM大模型平台,零编码集成嵌入第三方系统,42K+星标见证专属智能方案
推荐阅读
相关推荐
本地大模型部署指南:Ollama+Llama3.2从入门到API调用
更多 >
领券
💥开发者 MCP广场重磅上线!
精选全网热门MCP server,让你的AI更好用 🚀
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验