在 Milk-v duo上运行 Baby LLaMA 2 并实现 文本转语音功能
在未进行任何优化的情况下,Baby LLaMA 2 在运行15M参数的模型时,仅占用了部分CPU和内存资源(资源占用率均低于30%),但生成 token 的速度极慢,无法达到流畅生成故事的需求,本题需要采取各种手段优化其运行速度
由于开始优化时,离提交截止时间已经较近,因此没有将所有的设想全部实现一遍,但通过本次尝试,我熟悉了 risc v Vector 指令集的操作,了解到了 Baby LLaMA 2 这个有趣的项目,体验到了在嵌入式设备上进行性能优化的思维方式,了解到了 C 程序如何运行模型文件
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。