大家好,我是星哥,之前讲了很多关于本地Ollama的安装和使用DeepSeek等各种大模型的文章,本篇文章主要介绍一下,使用Ollama+Open-Webui把DeepSeek等大模型分享给局域网的童鞋使用。
大概的用法是局域网的终端通过浏览器访问大模型的服务器IP+端口,既可使用deepseek等大模型
部署本地国产DeepSeek大模型,参考 https://mp.weixin.qq.com/s/kJ7JCgFUNKWtPtp8r5mR_A 这篇文章。
安装好Ollama+Open Webui+开源大模型(DeepSeek、Llama等)
由于局域网IP段是192.168.1.X,我把ip固定以免DHCP把ip分配给局域网其他终端了。
我的是Win11系统,固定ip
如下图,打开TCP/IPV4
按实际需要改成固定内网IP。
这时候通过浏览器使用IP+端口即可访问Open Webui
open webui打开 api/models 很慢,每次都超过20秒了,打开都要等很久。
打开太慢,进去管理员面板---> 外部链接 ---> openai_api关闭即可,是网络环境的问题。
依次点击,设置管理员面板--->设置--->默认用户角色
默认是待激活,此时新用户注册需要管理员通过才可进入系统。
这里我选择“用户”。
依次点击,设置管理员面板--->用户--->默认用户角色
点击“权限组”
可以新建权限组,并且把组权限组里的权限按需打开。
我这里把权限都打开了。
新注册用户,还是没有大模型
依次点击,工作空间,大模型,再点加号
添加大模型
1.添加模型名称
2.基础模型 (来自),这里是ollama里面的模型
3.可见性改成公共。
验证
这样团队的小伙伴就可以使用你的Ollama了。
通过结合 Ollama 和 Open-WebUI,我们能够非常方便地将大模型(如 DeepSeek)通过局域网分享给团队中的其他成员使用。这种方式不仅简单直观,还能够通过 Web 界面让不熟悉命令行的同事也能够轻松使用模型。无论是在本地开发环境中还是在公司内部网络内,这种方法都能大大提高团队的协作效率。
写文不易,如果你都看到了这里,请点个赞和在看,分享给更多的朋友;也别忘了关注星哥玩云!这里有满满的干货分享,还有轻松有趣的技术交流~点个赞、分享给身边的小伙伴,一起成长,一起玩转技术世界吧! 😊
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。