首页
学习
活动
专区
圈层
工具
发布

#LoRa

实用的LoRaWAN 应用层协议规范

用户8921672

Thinklink : 开放的LoRaWAN应用平台,接收任何品牌的全球标准LoRaWAN设备,支持BACnet,Home assistant,Thingsbo...

6110

药品存储与运输中的温湿度监测:GSP合规性与通信技术对比

用户8921672

在实际应用中,常见的通信方式包括4G、WiFi、LoRa和LoRaWAN。它们在功耗、覆盖范围、兼容性等方面各有优劣。

8410

LoRa与LoRaWAN:物联网远距离通信的“基石”与“大脑”

用户8921672

LoRaWAN是基于LoRa物理层构建的开源通信协议栈,由LoRa联盟制定和维护。它定义了设备如何接入网络、如何与网关通信、如何与网络服务器(NS)交互,是整个...

22310

LoRa基站与LoRa网关:殊途同归的“连接者”

用户8921672

在 LoRaWAN 网络架构中,LoRa 基站和 LoRa 网关是两个常被提及的术语。很多人会疑惑:它们之间到底有什么区别?其实,从技术角度来说,LoRa 基站...

13610

QLoRA与LoRA的深度对比:从原理到实践(小白友好版)

AI浩

LoRA是"给大模型打补丁"的技术,只训练少量参数;QLoRA = 4-bit压缩大模型 + LoRA补丁,让普通电脑也能微调大模型。

36810

零压力了解 LoRA 微调原理

蛋先生DX

腾讯 | 前端研发 (已认证)

丹尼尔:蛋兄,我常常听到 LoRA 微调,那什么是 LoRA 呢?它又为什么可以加速微调呢?原理是什么呢?

24030

LoRa 通信协议

贺公子之数据科学与艺术

LoRa(Long Range)是一种远距离低功耗无线通信技术,广泛应用于物联网(IoT)场景。它的特点是传输距离远、功耗低、穿透力强,适合需要长时间运行的电池...

21710

【三桥君】QLoRA究竟如何从LoRA进化而来并成为AI工程师的必备技能?

三桥君

在当今的AI招聘市场中,QLoRA技术已经成为许多岗位的硬性要求。无论是大型科技公司还是初创企业,招聘信息中频繁出现的“熟悉QLoRA”字样,不禁让人思考:为什...

13810

四代微调框架深度拆解:24GB显存撬动700B参数的技术革命

聚客AI

在对大语言模型(LLM)进行微调时,有多种技术可选。今天我们分享一下最值得关注的 4 款工具 —— 从单卡 到支持万亿参数的分布式集群,它们几乎覆盖了所有 LL...

41710

ICML 2025 | CoTo:让LoRA训练「渐入佳境」,模型融合、剪枝样样精通

机器之心

还在为 LoRA 训练不稳定、模型融合效果差、剪枝后性能大降而烦恼吗?来自香港城市大学、南方科技大学、浙江大学等机构的研究者们提出了一种简单的渐进式训练策略,C...

11810

[大模型]XVERSE-7B-Chat Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 XVERSE-7B-Chat 模型进行 Lora 微调。Lora 是一种高效微调方法,...

15610

[大模型]Phi-3-mini-4k-Instruct Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 Phi-3-mini-4k-Instruct 模型进行 Lora 微调。Lora 是一...

16510

[大模型]MiniCPM-2B-chat Lora && Full 微调

云未归来

MiniCPM 是面壁智能与清华大学自然语言处理实验室共同开源的系列端侧大模型,主体语言模型 MiniCPM-2B 仅有 24亿(2.4B)的非词嵌入参数量。

29110

[大模型]LLaMA3-8B-Instruct Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 LLaMA3-8B-Instruct 模型进行 Lora 微调。Lora 是一种高效微...

27210

[大模型]GLM4-9B-chat Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 LLaMA3-8B-Instruct 模型进行 Lora 微调。Lora 是一种高效微...

17210

[大模型]Gemma2b-Instruct Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 Gemma2b 模型进行 Lora 微调。Lora 是一种高效微调方法,深入了解其原理...

13310

[大模型]CharacterGLM-6B-Chat Lora微调

云未归来

本文简要介绍如何基于transformers、peft等框架,对CharacterGLM-6B-chat模型进行Lora微调。Lora原理可参考博客:知乎|深入...

17000

[技术杂谈]什么是全量参数微调

云未归来

微调,Fine-Tuning,一般指全参数的微调(全量微调),指是一类较早诞生的微调方法,全参数微调需要消耗大量的算力,实际使用起来并不方便,因此不久之后又诞生...

9600

[大模型]TransNormerLLM-7B Lora 微调

云未归来

本节我们简要介绍如何基于 transformers、peft 等框架,对 TransNormerLLM-1B「备注:TransNormerLLM-358M/1B...

28910
领券