Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Docker三分钟搞定LLama3开源大模型本地部署

Docker三分钟搞定LLama3开源大模型本地部署

作者头像
Tinywan
发布于 2024-04-28 03:09:55
发布于 2024-04-28 03:09:55
7.8K00
代码可运行
举报
文章被收录于专栏:开源技术小栈开源技术小栈
运行总次数:0
代码可运行

概述

LLaMA-3(Large Language Model Meta AI 3)是由Meta公司开发的大型开源生成式人工智能模型。它在模型结构上与前一代LLaMA-2相比没有大的变动。

LLaMA-3模型分为不同规模的版本,包括小型、中型和大型,以适应不同的应用需求和计算资源。小型模型参数规模为8B,中型模型参数规模为70B,而大型模型则达到400B,仍在训练中,目标是实现多模态、多语言的功能,预计效果将与GPT 4/GPT 4V相当。

安装 Ollama

Ollama 是一个开源的大型语言模型(LLM)服务工具,它允许用户在本地机器上运行和部署大型语言模型。Ollama 设计为一个框架,旨在简化在 Docker 容器中部署和管理大型语言模型的过程,使得这一过程变得简单快捷。用户可以通过简单的命令行操作,快速在本地运行如 Llama 3 这样的开源大型语言模型。

官网地址:https://ollama.com/download

Ollama 支持多种平台,包括 Mac 和 Linux,并提供了 Docker 镜像以简化安装过程。用户可以通过编写 Modelfile 来导入和自定义更多的模型,这类似于 Dockerfile 的作用。Ollama 还具备一个 REST API,用于运行和管理模型,以及一个用于模型交互的命令行工具集。

Ollama服务启动日志

模型管理

下载模型
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama pull llama3:8b

默认下载的是llama3:8b。这里冒号前面代表模型名称,冒号后面代表tag,可以从这里查看llama3的所有tag

模型测试

注意:如果想让模型中文回复,请先输入:你好!请中文回复

配置Open-WebUI

在CPU下运行
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
访问

输入地址 http://127.0.0.1:3000 进行访问

初次访问需要注册,这里我注册一个账号,注册完成登录成功

切换中文语言

下载llama3:8b模型
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
llama3:8b

下载完成

使用

选择模型

使用模型

注意:如果想让模型中文回复,请先输入:你好!请中文回复

内存

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-04-25,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 开源技术小栈 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
大模型llm:Ollama部署llama3学习入门llm
Llama 3 是一个自回归语言模型(an auto-regressive language),它使用优化的 transformer 架构。调整后的版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF),以符合人类对有用性和安全性的偏好。
黄规速
2024/05/24
6.1K0
大模型llm:Ollama部署llama3学习入门llm
浅谈宇宙最强开源大模型Llama3如何应用
北京时间4月19日凌晨,Meta公司通过其官方网站宣布了Llama系列的最新开源大模型:Llama-3。
AIGC新知
2024/10/08
5080
浅谈宇宙最强开源大模型Llama3如何应用
普通电脑也能跑大模型,三步搞定私人AI助手 | LLaMA-3本地部署小白攻略
“ 在你的电脑上运行一个强大的AI助手,它不仅能力超群,还把所有秘密都藏在你的硬盘里。好奇这是如何实现的吗?动动手,三分钟就可以完成LLaMA-3的本地部署!”
技术人生黄勇
2024/07/19
2.9K0
普通电脑也能跑大模型,三步搞定私人AI助手 | LLaMA-3本地部署小白攻略
本机部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
本篇文章介绍在window系统下,安装Ollama并且安装gemma(谷歌大模型)、llama2(脸书大模型)、qwen(阿里大模型)等大模型的教程,实现类似免费ChatGPT的web界面
星哥玩云
2024/05/14
6.5K0
本机部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
Mac环境下ollama部署和体验
程序员欣宸
2024/05/26
2.3K0
Mac环境下ollama部署和体验
简单3步部署本地国产大模型DeepSeek大模型
DeepSeek是最近非常火的开源大模型,国产大模型 DeepSeek 凭借其优异的性能和对硬件资源的友好性,受到了众多开发者的关注。
星哥玩云
2025/02/06
5.2K0
简单3步部署本地国产大模型DeepSeek大模型
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
之前在window下安装过 Ollama和OpenWebUI搭建本地的人工智能web项目(可以看我之前写的文章),无奈电脑硬件配置太低,用qwen32b就很卡,卡出PPT了,于是又找了一台机器安装linux系统,在linux系统下测试一下速度能否可以快一些。
星哥玩云
2024/05/18
7.6K0
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
使用Ollama+OpenWebUI本地部署Gemma谷歌AI开放大模型完整指南
Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。它提供了一套简单的工具和命令,使任何人都可以轻松地启动和使用各种流行的LLM,例如GPT-3、Megatron-Turing NLG和WuDao 2.0。
神秘泣男子
2024/06/06
1.3K0
使用Ollama+OpenWebUI本地部署Gemma谷歌AI开放大模型完整指南
使用Ollama部署deepseek大模型
我的显卡在Windows电脑上面 所以使用Windows的安装方式去安装 若你的显卡是在Linux上面 可以使用如下命令安装
小陈运维
2025/02/04
2.3K0
使用Ollama部署deepseek大模型
本地部署AI大模型DeepSeek
在刚刚过去的春节假期,AI界可一点都不平静,一款来自中国的AI应用 DeepSeek,如同横空出世的黑马,迅速在全球范围内掀起了波澜。先是在美区App Store免费榜中力压ChatGPT,成功登顶,成为无数用户追捧的对象;而后又引发了美国科技股的剧烈震荡,英伟达市值一夜之间蒸发数千亿美元,整个科技板块都因之而颤抖。这一系列令人咋舌的事件,让DeepSeek这个名字,瞬间成为了全球AI领域的焦点。
wangmcn
2025/02/10
3960
本地部署AI大模型DeepSeek
使用Ollama部署deepseek大模型
连接到另一台服务器上的Ollama时,请将OLLAMA_BASE_URL更改为服务器的URL:
小陈运维
2025/01/26
3K0
使用Ollama和Open WebUI管理本地开源大模型的完整指南
Open WebUI 是一种基于 Web 的用户界面,用于管理和操作各种本地和云端的人工智能模型。它提供了一个直观的图形化界面,使用户可以方便地加载、配置、运行和监控各种 AI 模型,而无需编写代码或使用命令行界面。
神秘泣男子
2024/06/03
26.2K0
使用Ollama和Open WebUI管理本地开源大模型的完整指南
SpringAI+Ollama三部曲之一:极速体验
程序员欣宸
2024/05/26
1.7K0
SpringAI+Ollama三部曲之一:极速体验
在 Kubernetes 上部署 llama3
Ollama 是一个运行大模型的工具,可以看成是大模型领域的 Docker,可以下载所需的大模型并暴露 API。
imroc
2024/04/30
9900
在 Kubernetes 上部署 llama3
大模型——如何本地跑通一个大模型
这里主要借助两个开源项目 ollama 和 openwebui 这两个项目,来尝试本地跑通llama3.1 8b 、 mistral-nemo 12b 和 qwen2 7b 这些模型,再大的模型机器也撑不住了,机器配置如下:
思索
2024/09/23
4220
使用Ollama+OpenWebUI部署和使用Phi-3微软AI大模型完整指南
欢迎来到Phi-3模型的奇妙世界!Phi-3是由微软 AI研究院开发的一系列小型语言模型,它们以小巧的体型、强大的性能和开源的特点,在自然语言处理领域掀起了革命性的浪潮。
神秘泣男子
2024/06/09
1.6K0
使用Ollama+OpenWebUI部署和使用Phi-3微软AI大模型完整指南
Ollama如何构建自己的Llama3中文模型模型
Ollama 是一个开源的大型语言模型(LLM)服务工具,它允许用户在本地机器上运行和部署大型语言模型。Ollama 设计为一个框架,旨在简化在 Docker 容器中部署和管理大型语言模型的过程,使得这一过程变得简单快捷。用户可以通过简单的命令行操作,快速在本地运行如 Llama 3 这样的开源大型语言模型。
Tinywan
2024/05/20
1.1K0
Ollama如何构建自己的Llama3中文模型模型
Ollama:在你的PC上轻松运行 Llama 3 和其他大模型
Llama 我想大家都不陌生了,是 meta 开源的一款大模型,Llama3开源不到一个月的时间就有 19.7K 的 star,其火热程度可见一班。
一个程序猿的异常
2024/05/15
6.8K0
Ollama:在你的PC上轻松运行 Llama 3 和其他大模型
容器环境下部署Open-webui、One-api、Ollama、Deepseek
浏览器访问 http://ip:3000 (注意:首次登录不要去注册,直接登录,默认超管账号:root,密码:123456),登录后直接跳转到更新用户信息界面修改后再重新登陆,如下截图:
用户2141488
2025/03/07
7861
轻松上手!手机上部署Phi3、Llama3最新大模型全攻略!
大模型无疑是此次AI革命的主角,大模型基于Scaling Law(缩放定律)。简单的说,就是数据越多,参数越大,算力越强,模型最终的能力就越强。随着模型参数和预训练数据规模的增加,模型能力与任务效果不断改善,展示出了一些小规模模型所不具备的“涌现能力”。
算法进阶
2024/05/02
8.4K0
轻松上手!手机上部署Phi3、Llama3最新大模型全攻略!
推荐阅读
相关推荐
大模型llm:Ollama部署llama3学习入门llm
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验