首页
学习
活动
专区
圈层
工具
发布

#LoRa

QLoRA与LoRA的深度对比:从原理到实践(小白友好版)

AI浩

LoRA是"给大模型打补丁"的技术,只训练少量参数;QLoRA = 4-bit压缩大模型 + LoRA补丁,让普通电脑也能微调大模型。

10410

零压力了解 LoRA 微调原理

蛋先生DX

腾讯 | 前端研发 (已认证)

丹尼尔:蛋兄,我常常听到 LoRA 微调,那什么是 LoRA 呢?它又为什么可以加速微调呢?原理是什么呢?

16730

LoRa 通信协议

用户1750537

LoRa(Long Range)是一种远距离低功耗无线通信技术,广泛应用于物联网(IoT)场景。它的特点是传输距离远、功耗低、穿透力强,适合需要长时间运行的电池...

10510

【三桥君】QLoRA究竟如何从LoRA进化而来并成为AI工程师的必备技能?

三桥君

在当今的AI招聘市场中,QLoRA技术已经成为许多岗位的硬性要求。无论是大型科技公司还是初创企业,招聘信息中频繁出现的“熟悉QLoRA”字样,不禁让人思考:为什...

9510

四代微调框架深度拆解:24GB显存撬动700B参数的技术革命

聚客AI

在对大语言模型(LLM)进行微调时,有多种技术可选。今天我们分享一下最值得关注的 4 款工具 —— 从单卡 到支持万亿参数的分布式集群,它们几乎覆盖了所有 LL...

33810

ICML 2025 | CoTo:让LoRA训练「渐入佳境」,模型融合、剪枝样样精通

机器之心

还在为 LoRA 训练不稳定、模型融合效果差、剪枝后性能大降而烦恼吗?来自香港城市大学、南方科技大学、浙江大学等机构的研究者们提出了一种简单的渐进式训练策略,C...

11510

[大模型]XVERSE-7B-Chat Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 XVERSE-7B-Chat 模型进行 Lora 微调。Lora 是一种高效微调方法,...

10810

[大模型]Phi-3-mini-4k-Instruct Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 Phi-3-mini-4k-Instruct 模型进行 Lora 微调。Lora 是一...

14510

[大模型]MiniCPM-2B-chat Lora && Full 微调

云未归来

MiniCPM 是面壁智能与清华大学自然语言处理实验室共同开源的系列端侧大模型,主体语言模型 MiniCPM-2B 仅有 24亿(2.4B)的非词嵌入参数量。

23610

[大模型]LLaMA3-8B-Instruct Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 LLaMA3-8B-Instruct 模型进行 Lora 微调。Lora 是一种高效微...

19410

[大模型]GLM4-9B-chat Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 LLaMA3-8B-Instruct 模型进行 Lora 微调。Lora 是一种高效微...

14510

[大模型]Gemma2b-Instruct Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 Gemma2b 模型进行 Lora 微调。Lora 是一种高效微调方法,深入了解其原理...

12410

[大模型]CharacterGLM-6B-Chat Lora微调

云未归来

本文简要介绍如何基于transformers、peft等框架,对CharacterGLM-6B-chat模型进行Lora微调。Lora原理可参考博客:知乎|深入...

11600

[技术杂谈]什么是全量参数微调

云未归来

微调,Fine-Tuning,一般指全参数的微调(全量微调),指是一类较早诞生的微调方法,全参数微调需要消耗大量的算力,实际使用起来并不方便,因此不久之后又诞生...

8600

[大模型]TransNormerLLM-7B Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 TransNormerLLM-1B「备注:TransNormerLLM-358M/1B...

26910

[大模型]Qwen-7B-Chat Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 Qwen-7B-Chat 模型进行 Lora 微调。Lora 是一种高效微调方法,深入...

20410

[大模型]DeepSeek-7B-chat Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 DeepSeek-7B-chat 模型进行 Lora 微调。Lora 是一种高效微调方...

21010

[大模型]BlueLM-7B-Chat Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 BlueLM-7B-Chat 模型进行 Lora 微调。Lora 是一种高效微调方法,...

11710

[大模型]# Yi-6B-Chat Lora 微调

云未归来

本节我们介绍如何基于 transformers、peft 等框架,对 Yi-6B-Chat 模型进行 Lora 微调。Lora 是一种高效微调方法,深入了解其原...

14410

[大模型]Atom-7B-Chat 的 Lora 指令微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 Atom-7B-Chat 模型进行 Lora 微调。Lora 是一种高效微调方法,深入...

10910
领券