首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >Ollama 又一新玩法

Ollama 又一新玩法

作者头像
Ai学习的老章
发布2026-03-02 20:56:14
发布2026-03-02 20:56:14
600
举报

Ollama 先上一盘小菜,一键启动,免费使用

代码语言:javascript
复制
ollama run qwen3.5:cloud

之前,Ollama 已经陆续免费放出 Kimi-K2.5GLM-5MiniMax-M2.5,应该已经形成惯例了

这些模型都可以一键配置到Claude Code、Opencode等 Agent、还有OpenClaw

而且,我看评论,它的云端模型不是量化版!

今天要说的是 Ollama 在推出 launch 命令后的又一更新,这次是直接对ollama命令本身!

升级至0.16.1 之后,ollama命令可以在模型和不同工具之间即时切换

这意味着:可以直接使用 Claude Code、Codex、OpenClaw 等,无需任何额外配置

现在 Ollama 还支持 Claude Code 中的 Subagents 和网页搜索!无需配置 MCP 服务器或 API 密钥。

通过 ollama launch claude --model minimax - m2.5:cloud 指令即可开启相关功能,该功能适用于 Ollama 云端任何模型。

  • Subagents可并行运行如文件搜索、代码探索等任务,在不同情境下高效执行,部分模型会按需自动触发Subagents,用户也能手动指令触发
  • 网页搜索已内置于 Anthropic 兼容层,模型需最新信息时,Ollama 可直接处理搜索并返回结果,Subagents也能利用网页搜索并行研究课题

之前它在放出更多云端模型的时候,我就感觉,这种无缝切换的体验,才是 Ollama 的杀手锏。目前看,它逐渐把这种无缝切换外延逐渐扩展,统一模型、统一接口、统一开发体验的路越走越宽了

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2026-02-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习与统计学 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档