Ollama 先上一盘小菜,一键启动,免费使用
ollama run qwen3.5:cloud
之前,Ollama 已经陆续免费放出 Kimi-K2.5、GLM-5、MiniMax-M2.5,应该已经形成惯例了
这些模型都可以一键配置到Claude Code、Opencode等 Agent、还有OpenClaw
而且,我看评论,它的云端模型不是量化版!

今天要说的是 Ollama 在推出 launch 命令后的又一更新,这次是直接对ollama命令本身!
升级至0.16.1 之后,ollama命令可以在模型和不同工具之间即时切换
这意味着:可以直接使用 Claude Code、Codex、OpenClaw 等,无需任何额外配置

现在 Ollama 还支持 Claude Code 中的 Subagents 和网页搜索!无需配置 MCP 服务器或 API 密钥。

通过 ollama launch claude --model minimax - m2.5:cloud 指令即可开启相关功能,该功能适用于 Ollama 云端任何模型。

之前它在放出更多云端模型的时候,我就感觉,这种无缝切换的体验,才是 Ollama 的杀手锏。目前看,它逐渐把这种无缝切换外延逐渐扩展,统一模型、统一接口、统一开发体验的路越走越宽了