最近很多人都被Manus刷屏了,据说一个邀请码已经被炒到了10万元的天价。不过,没过几天,开源的OpenManus方案也来了,接下来我们就来教大家自建OpenManus,提前体验Manus。
不过想要OpenManus能够“干活”,还需要配置接入和调用的模型。
除了使用线上模型,我们也可以进行本地部署,比如使用Ollama部署自己的专属模型。
由于OpenManus对模型性能要求较高,因此我们可以在高性能主机上部署大参数的模型,为了确保安全远程访问,可以使用贝锐花生壳内网穿透搭配访问控制,或是贝锐蒲公英异地组网。
DeepSeek-R1、Qwen系列的模型均可,但需要注意的是,除了建议使用至少7B以上模型以获得更好的效果,还需确认模型支持Function Call特性,使其能够与外部工具或服务交互,比如。
值得注意的是,Ollama默认仅开启本机访问(无法外部或远程访问),为了确保安全远程访问,可以使用贝锐花生壳内网穿透搭配访问控制,或是贝锐蒲公英异地组网。
值得一提的是,贝锐花生壳生成的访问地址支持无需本地部署证书,一键采用HTTPS协议,可实现全程加密传输,充分保障数据的私密性和安全性。
更进一步的是,贝锐花生壳不同于其他内网穿透还可提供精细化访问权限控制、爆破防护等高级功能增值服务。
贝锐花生壳可基于时间周期、IP地址/区域、浏览器/系统版本等条件判断是否允许访问,自动阻止未经授权访问请求,再也不用担心私有服务暴露公网。
完成后,在OpenManus根目录内使用python app.py即可运行,通过网页浏览器访问localhost:5172就能让AI自动完成任务。
除了搭配贝锐花生壳,我们还可使用贝锐蒲公英异地组网,相当于将多台异地设备组建成虚拟局域网,同样无需公网IP、无需复杂配置就能实现远程访问。
在运行Ollama的主机中下载、安装蒲公英客户端,注册贝锐账号并登录。如需远程访问,同样在设备中下载、安装蒲公英客户端,并用同一个贝锐账号登录,彼此之间就可以自动组网。
此外,也可登录贝锐蒲公英的云端管理平台,添加、创建组网成员,通过组网成员的UID和预设密码,登录贝锐蒲公英客户端组网。
之后,在OpenManus的config.toml文件中,采用Ollama主机的贝锐蒲公英虚拟IP即可远程调用模型。
至此,我们已经完成了OpenManus的本地安装、模型配置及远程访问设置。通过 Ollama 部署 AI 模型,并结合贝锐花生壳内网穿透或贝锐蒲公英异地组网,我们可以轻松实现私有 AI 模型的远程调用,确保数据安全与访问便捷。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。