
今天在ModelScope逛模型库时,发现不少心仪的GGUF格式模型,本以为本地只装了Ollama没法用,结果意外解锁了两者对接的简单方法,亲测能快速加载模型运行,特此整理成教程分享给大家。
在动手前,先理清核心逻辑,避免后续操作踩坑:
整个过程无需编写代码,纯命令行操作,新手也能快速上手。
ollama --version,若版本过低,参考Ollama官方文档或ModelScope提供的Linux安装包升级。这是最关键的一步,只需1条命令就能拉取并运行ModelScope的模型,命令格式如下:
ollama run modelscope.cn/{model-id}其中{model-id}是ModelScope模型的唯一标识,格式为{用户名}/{模型名},比如:
ollama run modelscope.cn/Qwen/Qwen2.5-3B-Instruct-GGUFollama run modelscope.cn/second-state/gemma-2-2b-it-GGUFollama run modelscope.cn/Shanghai_AI_Laboratory/internlm2_5-7b-chat-gguf实际操作示例:以加载Qwen2.5-3B-Instruct-GGUF为例,终端输入命令后,会自动完成以下流程:
ModelScope的同一个GGUF模型库中,通常包含不同量化精度的文件(如Q3_K_M、Q4_K_M、Q5_K等),默认会优先选择Q4_K_M版本(平衡精度、速度和资源消耗),若需自定义精度,有两种方式:
:精度标识,大小写不敏感,例如:ollama run modelscope.cn/Qwen/Qwen2.5-3B-Instruct-GGUF:Q3_K_M除了常见的LLM(大语言模型),这种方法还支持加载ModelScope上的视觉多模态模型,只需注意两点:
/mnt/workspace/demo.png这类路径上传图片,让模型描述图像内容,比如输入“用中文描述一下这张图片 /mnt/workspace/demo.png”,模型会自动分析并返回图像描述。原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。