前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >大模型——如何本地跑通一个大模型

大模型——如何本地跑通一个大模型

原创
作者头像
思索
发布2024-09-23 17:59:06
1230
发布2024-09-23 17:59:06

前言

这里主要借助两个开源项目 ollamaopenwebui 这两个项目,来尝试本地跑通llama3.1 8bmistral-nemo 12bqwen2 7b 这些模型,再大的模型机器也撑不住了,机器配置如下:

CPU: M2 Max

内存:32 GB

内容

ollamahttps://ollama.com/

ollama GitHubhttps://github.com/ollama/ollama

ollama Modelshttps://ollama.com/library

openwebuihttps://openwebui.com/

openwebui GitHubhttps://github.com/open-webui/open-webui

安装ollama

访问 ollama 网站,根据自身的平台来下载应用,下载后正常安装即可,安装完成后运行命令来拉取模型,模型可访问 ollama Models 选择相应的模型后,会有对应的命令,终端执行即可。

代码语言:shell
复制
## llama3.1
$ ollama run llama3.1:8b

## qwen2.5
$ ollama run qwen2.5:7b

## mistral-nemo
$ ollama run mistral-nemo:12b

安装openwebui

因为我的 ollama 是在本地的,所以我这里直接基于 docker 来运行 openwebui,运行命令如下:

代码语言:shell
复制
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

运行成功后,我们访问 127.0.0.1:3000 即可打开本地的聊窗口,创建好对应的账号登录后,访问界面如下:

总结

总的来说,现在基于开源的项目,我们能够很快的搭建一个自己本地使用的模型,当前如果你不存在数据安全的问题,使用国内或国外的最新的大模型体验肯定更好。

尝试跑了下llama3.1 70b的模型,跑起来后内存直线飙升,32GB内存的机器不建议尝试跑70b

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前言
  • 内容
    • 安装ollama
      • 安装openwebui
      • 总结
      相关产品与服务
      大模型知识引擎
      大模型知识引擎(LLM Knowledge Engine),是面向企业客户及合作伙伴的,基于大语言模型的知识应用构建平台,结合企业专属数据,提供知识问答等应用范式,更快更高效地完成大模型应用的构建,推动大语言模型在企业服务场景的应用落地。
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档