前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >LLM 大模型学习必知必会系列(八):10分钟微调专属于自己的大模型

LLM 大模型学习必知必会系列(八):10分钟微调专属于自己的大模型

作者头像
汀丶人工智能
发布2024-05-26 09:44:00
2140
发布2024-05-26 09:44:00
举报
文章被收录于专栏:NLP/KGNLP/KG

LLM 大模型学习必知必会系列(八):10分钟微调专属于自己的大模型

1.环境安装

2.微调前推理

使用python:

如果你要进行单样本推理, 可以参考LLM推理文档

使用CLI:

3.微调

提示: 因为自我认知训练涉及到知识编辑, 建议对MLP加lora_target_modules. 你可以通过指定--lora_target_modules ALL在所有的linear层(包括qkvo以及mlp)加lora. 这通常是效果最好的.

使用python:

使用CLI (单卡):

使用CLI (DeepSpeed-ZeRO2):

如果你使用的是3090等卡, 可以降低max_length来减少显存消耗.

4.微调后推理

你需要设置best_model_checkpoint的值, 该值会在sft的最后被打印出来.

使用python:

使用CLI:

5.Web-UI

使用python:

使用CLI:

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2024-05-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • LLM 大模型学习必知必会系列(八):10分钟微调专属于自己的大模型
  • 1.环境安装
  • 2.微调前推理
  • 3.微调
  • 4.微调后推理
  • 5.Web-UI
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档