cd /data01/downloadModel/Qwen
#单卡
vllm serve Qwen3-0.6B --port 8000 --enable-reasoning --reasoning-parser deepseek_r1
#多卡跑Qwen3-0.6B
vllm serve Qwen3-0.6B --port 8000 --max-model-len 4096 --tensor-parallel-size 2 --max-num-seqs 4 --enable-reasoning --reasoning-parser deepseek_r1
#多卡跑Qwen2.5-14B(32B)-Instruct
vllm serve Qwen2.5-32B-Instruct --port 8000 --tensor-parallel-size 4 --max-num-seqs 4
#单卡跑Qwen2.5-VL-7B-Instruct
vllm serve Qwen2.5-VL-7B-Instruct --dtype half --port 6006 --limit_mm_per_prompt image=4 --max_model_len 8784
成功挂载:
在Dify中编辑“模型供应商”,添加更多模型供应商“OpenAI-API-compatible”,不仅支持LLM还支持Embedding模型:
成功部署:
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有