首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >vLLM中如何实现大模型推理加速技术?

vLLM中如何实现大模型推理加速技术?

作者头像
aaronwjzhao
修改2025-11-18 17:38:16
修改2025-11-18 17:38:16
751
举报
概述
总结了vLLM框架的推理加速技术,比如chunked prefill、prefix caching、continuous batching、投机解码、MTP等。主要从代码实现角度,分析vLLM源码中如何实现这些技术。
文章被收录于专栏:AI工程落地AI工程落地

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • batch prefill
  • continuous batching
  • chunked prefill
  • prefix caching
  • Speculative Decoding
    • MTP在vLLM中的实现
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档