暂无搜索历史
今天来聊一个我觉得真正解决了痛点的项目——OpenWork。如果你一直在用 Claude Code、OpenCode、Codex 这类 AI 编程工具,那你一定...
今天聊点不太一样的。我用一个开源项目 OpenCode 的 Server API,花了一个下午,搭了一个自己的 Telegram AI 编程机器人。
Qwen3.5 轻量版来了,更智能,更小巧,量化版本地部署,消费级显卡轻松跑 一文中测试了,十分建议:首选 Qwen3.5-27B,无论是官方benchmark...
之前,Ollama 已经把 部署 OpenClaw 的过程被极度简化了:OpenClaw免费玩 ,Ollama 提供云模型支持,这可能是目前最简单的安装、配置教...
我自己做过测试,跟这个差远了:DeepSeek 8B 极限测试,200 Tokens每秒,眼球跟不上了
llmfit 是个能在终端里运行的小工具,它会检测你本机的实时硬件状态(CPU、RAM、GPU 和 VRAM 等),然后结合内置的 157 个大模型(包含 30...
Ollama 再次升级,原生命令增加了对 Pi 的支持,一键启动并免配置使用 Kimi-K2.5 云端模型
我看最近 Unsloth 的仓库和博客,感觉已经不是手把手,而是直接一键启动了,pip install 安装环境,打开一个免费的 Colab notebook,...
我经常同时使用好几个 Agent,一个帮我写代码,一个帮我做数据分析,一个帮我搞文档
之前,Ollama 已经陆续免费放出 Kimi-K2.5、GLM-5、MiniMax-M2.5,应该已经形成惯例了
397B 参数的模型,哪怕只激活 17B,完整模型也有 807GB。听起来吓人,但实际上,得益于 Unsloth 的 Dynamic 2.0 量化技术,192G...
DeepSeek-R1 满血版 671B,光模型文件就几百 GB,普通人想都别想。就算用 Ollama 跑个量化版,4-bit 的 7B 模型也得 6-8 GB...
继续极限压缩 OpenClaw,PicoClaw 来了,比之前我介绍到的 nanoBot 更小巧,不需要 Macmini,10 块钱的硬件,10MB 内存,1 ...
这次 M2.5:编程能力直接干到全球第一梯队,价格却只有 Claude Opus 的十分之一。
阿里 Qwen3-Max-Thinking 来了,加上 TTS 更强了,依然不开源
乍一看,还以为是 AI 生成的恶搞短片。但当手指戳了一下屏幕不选择“其他模型”时——Grok 越变越小,其他模型越变越大,只有当你选择 Grok 时,马斯克才会...
上午Qwen3.5 要来了,字节、DeepSeek 春节或将发布旗舰大模型一文中还在讨论 Qwen 3.5、字节 Seed、DeepSeek-V4 谁会先发,结...
Qwen3.5、MiniMax2.2、字节跳动 Seed、DeepSeek-V4 都要来了吗?
结论:PaddleOCR-VL-1.5和GLM-OCR在参数效率上最优,适合资源受限环境。
最牛逼的是视频声音也被转成了英文,不同人物音色还都保留了!声音克隆这一块,还是 B 站会整活儿
暂未填写公司和职称
暂未填写技能专长
暂未填写学校和专业
暂未填写个人网址
暂未填写所在城市