首页
学习
活动
专区
圈层
工具
发布

#LoRa

四代微调框架深度拆解:24GB显存撬动700B参数的技术革命

聚客AI

在对大语言模型(LLM)进行微调时,有多种技术可选。今天我们分享一下最值得关注的 4 款工具 —— 从单卡 到支持万亿参数的分布式集群,它们几乎覆盖了所有 LL...

23710

ICML 2025 | CoTo:让LoRA训练「渐入佳境」,模型融合、剪枝样样精通

机器之心

还在为 LoRA 训练不稳定、模型融合效果差、剪枝后性能大降而烦恼吗?来自香港城市大学、南方科技大学、浙江大学等机构的研究者们提出了一种简单的渐进式训练策略,C...

9310

[大模型]XVERSE-7B-Chat Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 XVERSE-7B-Chat 模型进行 Lora 微调。Lora 是一种高效微调方法,...

8610

[大模型]Phi-3-mini-4k-Instruct Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 Phi-3-mini-4k-Instruct 模型进行 Lora 微调。Lora 是一...

12510

[大模型]MiniCPM-2B-chat Lora && Full 微调

云未归来

MiniCPM 是面壁智能与清华大学自然语言处理实验室共同开源的系列端侧大模型,主体语言模型 MiniCPM-2B 仅有 24亿(2.4B)的非词嵌入参数量。

20510

[大模型]LLaMA3-8B-Instruct Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 LLaMA3-8B-Instruct 模型进行 Lora 微调。Lora 是一种高效微...

12610

[大模型]GLM4-9B-chat Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 LLaMA3-8B-Instruct 模型进行 Lora 微调。Lora 是一种高效微...

12610

[大模型]Gemma2b-Instruct Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 Gemma2b 模型进行 Lora 微调。Lora 是一种高效微调方法,深入了解其原理...

10910

[大模型]CharacterGLM-6B-Chat Lora微调

云未归来

本文简要介绍如何基于transformers、peft等框架,对CharacterGLM-6B-chat模型进行Lora微调。Lora原理可参考博客:知乎|深入...

8600

[技术杂谈]什么是全量参数微调

云未归来

微调,Fine-Tuning,一般指全参数的微调(全量微调),指是一类较早诞生的微调方法,全参数微调需要消耗大量的算力,实际使用起来并不方便,因此不久之后又诞生...

8100

[大模型]TransNormerLLM-7B Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 TransNormerLLM-1B「备注:TransNormerLLM-358M/1B...

25310

[大模型]Qwen-7B-Chat Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 Qwen-7B-Chat 模型进行 Lora 微调。Lora 是一种高效微调方法,深入...

16110

[大模型]DeepSeek-7B-chat Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 DeepSeek-7B-chat 模型进行 Lora 微调。Lora 是一种高效微调方...

17710

[大模型]BlueLM-7B-Chat Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 BlueLM-7B-Chat 模型进行 Lora 微调。Lora 是一种高效微调方法,...

9310

[大模型]# Yi-6B-Chat Lora 微调

云未归来

本节我们介绍如何基于 transformers、peft 等框架,对 Yi-6B-Chat 模型进行 Lora 微调。Lora 是一种高效微调方法,深入了解其原...

11610

[大模型]Atom-7B-Chat 的 Lora 指令微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 Atom-7B-Chat 模型进行 Lora 微调。Lora 是一种高效微调方法,深入...

9810

[大模型]ChatGLM3-6B-chat Lora 微调

云未归来

这个缩放的本质并没有改变LoRa的参数量大小,本质在于将里面的参数数值做广播乘法,进行线性的缩放。

14810

[大模型]Baichuan2-7B-chat lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 Baichuan2-7B-chat模型进行 Lora 微调。Lora 是一种高效微调方...

10410

深度解析:当大模型遇上个性化需求,谁才是真正的效能之王?

蓝葛亮

华医科技 | 技术副总经理(CIO) (已认证)

关键词:深度解析、Fine-tuning、LoRA、Prompt-tuning、效能对比、大模型调优、AI性能优化

6.4K131

集团内部lora模型微调-纯CPU训练-数据集准备-分享篇

高老师

这是整个过程中最耗时但价值最高的部分。您需要为每一张图片创建一个与之同名的 .txt 文本文件。

16910
领券
首页
学习
活动
专区
圈层
工具
MCP广场