太好了,AI视频有救了,只需要6G显存,就可以玩转AI视频,FramePack是由ControlNet作者敏神(Lvmin Zhang)开源的,整合包也是官方版本的整合包,采用预测下一帧的预测神经网络机构,逐步生成视频,本地最支持120秒输出,最低6G显存可运行,当然120秒需要的时间也是随之增加的,下面补了使用教程。
目前支持RTX30XX、40XX、50XX的英伟达N卡显卡,要使用 13B 型号以 30fps(1800 帧)的速度生成 1 分钟视频(60 秒),所需的最小 GPU 内存为 6GB。(是的 6 GB,不是拼写错误。笔记本电脑 GPU 也可以运行),当然未来的发展方向肯定是显存越来越低,速度越来越快,质量越来越高,但当下,敏神YYDS。
在 RTX 4090 台式机上,它的生成速度为 2.5 秒/帧(未优化)或 1.5 秒/帧(teacache)。在笔记本电脑上,如 3070ti 笔记本电脑或 3060 笔记本电脑,它的速度大约慢 4 到 8 倍。
温馨提示公众号已开启留言功能哦, 所需要的模型和插件工作流都放在文件夹啦~,点击上方蓝色字,回复关键字复制【FramePack】领取本期整合包的全部生态工作流,以及工作流,敏神同款chatGPT提示词资料~~码字不易,希望大家点赞收藏在看~~
强烈建议勾选加速插件,第一个是表示视频的长度,建议从5-10秒开始尝试
第二个是步数,默认25即可,理论步数越高,质量越好,时间也越长
第三个是提示词的关联性,默认即可,其他参数保持默认,可以自由调节
啊?劳模KJ已经集成到Comfyui了?如果你不想要下载整合包,可以在Comfyui中使用工作流
1.更新最新的Comfyui
2.下载插件,没网?没事,我打包好了,放到自定义节点文件夹即可
https://github.com/kijai/ComfyUI-FramePackWrapper
3.拖入工作流
4.下载模型
使用文本编码器、VAE 和 sigclip 的所有原生模型:
https://huggingface.co/Comfy-Org/HunyuanVideo_repackaged/tree/main/split_files
https://huggingface.co/Comfy-Org/sigclip_vision_384/tree/main
transformer 模型本身可以从这里自动下载:
https://huggingface.co/lllyasviel/FramePackI2V_HY/tree/main
自
ComfyUI\models\diffusers\lllyasviel\FramePackI2V_HY
或从单个文件中,在 :
ComfyUI\models\diffusion_models
https://huggingface.co/Kijai/HunyuanVideo_comfy/blob/main/FramePackI2V_HY_fp8_e4m3fn.safetensors
https://huggingface.co/Kijai/HunyuanVideo_comfy/blob/main/FramePackI2V_HY_bf16.safetensors
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有