
本地部署Ollama搭配开源视觉模型Gemma3和Open WebUI,不仅可离线运行强大多模态大模型,还通过图形界面实现便捷交互,兼顾隐私、安全与易用性。
以下是在本地部署Ollama+Gemma3模型+Open WebUI的完整细化流程,适用于Windows环境,后续还可以结合贝锐花生壳进行内网穿透实现远程访问,而且无需公网IP、无需配置路由器,操作非常简单!
前往Ollama官网(ollama.com)下载安装包,一键安装,并启动Ollama。

安装完成后打开命令行(CMD或PowerShell),测试是否安装成功:
ollama --version
Gemma3是Google发布的开源视觉/语言大模型系列,使用以下命令即可直接启用,首次运行时会自动下载模型,根据选择的参数大小,可能需要几百MB到几个GB的磁盘空间,下载完成后模型会自动加载。
ollama run gemma3
前往Docker官网(www.docker.com)下载安装包,一键安装,并启动Docer。

docker pull ghcr.io/open-webui/open-webui:maindocker run-d \
-p 3000:8080 \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
-v open-webui:/app/backend/data \
--name open-webui \
ghcr.io/open-webui/open-webui:main成功后,访问本地地址(localhost:3000)会出现类似ChatGPT的页面,左侧模型选择中应可见gemma,可以与模型开始交互。





安全配置建议
至此,从模型部署到图形化界面再到远程访问,一整套基于Ollama+Gemma3+Open WebUI的本地AI应用方案已经搭建完成。通过贝锐花生壳内网穿透,不仅打破了公网IP和网络环境的限制,更让你的多模态大模型应用具备了“随时随地、安全可控”的远程访问能力。无论是个人实验、局域网部署,还是企业内部模型调试,这套组合都具备极高的可用性与可扩展性。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。