很多模型,特别是FLUX系列的模型,会应用各种torch.compile技术/技巧来提高推理速度。
对编译函数的第一次调用会跟踪并编译代码,这会增加开销。随后的调用则运行优化后的代码,速度会显著加快。
提示 在我们对black-forest-labs/flux-kontext-dev模型进行推理速度测试时,编译版本比未编译版本的运行速度快了30%以上。
通过在模型容器生命周期之间缓存编译产物,我们看到了冷启动时间的显著改善:
该缓存还改善了所有使用torch.compile的模型从容器的启动到首次成功预测所需的时间。
该缓存系统的工作原理与许多CI/CD缓存系统类似:
要了解更多关于如何使用torch.compile的信息,请查阅相关的技术文档和官方PyTorch torch.compile教程。FINISHED
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。