一个命令测出你的电脑可以本地部署哪些大模型
llmfit 是个能在终端里运行的小工具,它会检测你本机的实时硬件状态(CPU、RAM、GPU 和 VRAM 等),然后结合内置的 157 个大模型(包含 30 多家供应商)数据库,直接告诉你:你的电脑能跑得动哪些模型,以怎样的速度跑,以及该用什么量化版本。
这个工具的命令行 TUI 交互界面,左侧列出了模型列表,右侧直接算好了在你电脑上的得分和吐字速度(Tok/s):

主界面演示
核心功能与特点:
llmfit 懂这个道理,它的估算考虑了真实的激活参数,不会瞎报警说你跑不动d 就能自动让 Ollama 给你 Pull 下来,行云流水看一下针对 MoE 架构(比如 DeepSeek) 时的评估估显示情况:

MoE模型支持
官方推荐的方式非常简单,如果你是 macOS 或 Linux 用户,直接用这个脚本安装(基于我个人体验,这个极速安装法最稳):
# 安装命令
curl -fsSL https://llmfit.axjns.dev/install.sh | sh
如果你习惯用 Homebrew 也可以:
brew tap AlexsJones/llmfit
brew install llmfit
装好之后如果直接敲 llmfit,就会进入如上面动图展示的那个精美的终端界面(TUI)。
如果你更喜欢敲命令行,想配合自己的脚本用,它的 CLI 模式支持也非常棒。
# 直接用表格方式列出最适合你电脑的 5 个顶级模型
llmfit fit --perfect -n 5
# 查看当前的系统和检测到的硬件状态
llmfit system
# 想看看 Llama 系列里哪些能跑
llmfit search "llama 8b"
如果你遇到了像我一样有些机器上 nvidia-smi 挂掉,检测不到显存的尴尬场景,可以直接通过参数把显存“喂”给它:
# 强行指定这台机器有 24GB 显存,看看能跑啥
llmfit --memory=24G fit --perfect -n 5
最后,来看一下如果在界面里直接让 Ollama 下载模型的爽快体验:

直接利用Ollama下载
我用我的工作本测试了一下,感觉出乎意料的准。以前用 Ollama 部署稍微大一点的模型,并发一上来我就卡成 PPT,因为显存其实在边缘挣扎
用了 llmfit 按照它推荐的量化级别去跑,确实如释重负,感觉在硬件利用率和回答速度之间找到了甜点区
同时这也给想"低配高用"的玩家省去了试错成本,什么模型适合你的硬件一目了然,不需要一遍一遍的下载动辄十几GB 的模型权重来测试了,费时费力。实测,十分优秀。唯一的局限可能在于它的模型库只有 157 个,需要社区不断更新。
关注。给我个三连击:点赞、转发和在看。若可以再给我加个🌟,谢谢你看我的文章,我们下篇再见!