首页
学习
活动
专区
圈层
工具
发布

#量化

Ollama 的云端大模型,越来越多了,还免费

Ai学习的老章

❌ 硬件门槛高 - 大模型需要昂贵的 GPU(70B+ 模型可能需要 48GB+ VRAM) ❌ 性能受限 - 推理速度取决于本地硬件 ❌ 准确性问题 - 量化...

20210

量化大模型,本地部署,效果不打折

Ai学习的老章

Unsloth 秘密武器是动态量化,核心思路是:对模型的少数关键层进行高质量的 4-6bit 量化,而对大部分相对没那么关键的混合专家层(MoE)进行大刀阔斧的...

10010

J. Med. Chem. | Merck药物设计:分子编辑与芳杂环的突围

DrugOne

通过对杂环芳基类药物及生物活性分子进行计算机模拟反应以实现骨架编辑(如嘧啶杂环转换为咪唑杂环),构建了虚拟的骨架编辑杂环芳香化合物库,并通过量化编辑后骨架在数据...

6210

视觉生成的另一条路:Infinity 自回归架构的原理与实践

深度学习与Python

以 ChatGPT、DeepSeek 为代表的大语言模型取得了巨大的成功,掀起了全球新一轮 AI 浪潮。但是在视觉生成领域,目前主流的方法却是一直以扩散模型为主...

11310

分类模型校准:ROC-AUC不够?用ECE/pMAD评估概率质量

deephub

如果一个项目的核心不是分类准确率,而是概率估计的质量。换句话说,需要的是一个校准良好的模型。这里校准的定义是:如果模型给一批样本都预测了25%的正例概率,那这批...

9710

需要同事协同,他不配合我怎么办?(都是平级,凭什么听你的?)

架构师之路

1. 我作为项目经理,项目成员来自各个小组,并不直接汇报给我,这个时候,我觉得项目管理会变得困难,项目延期风险会大增。所有项目成员不是都听我的,经常有成员说“抱...

11510

腾讯云开源DeepSeek量化部署方案:性能最高提升3.9X!

腾讯开源

随着大语言模型规模持续增长,如何降低推理成本成为业界焦点。量化是一种主流的稳定高效的降本部署方式。腾讯云联合小红书Hilab Infra团队,在SGLang 中...

19710

【免疫组库分析】Alakazam包【基因使用、多样性及氨基酸理化性质分析】使用说明

三兔测序学社

可以通过 countGenes 函数获得组内 V(D)J 等位基因、基因或家族的相对丰度。为了分析不同样本之间的 V 基因使用差异,我们将设置 gene="v_...

10310

NeurIPS`25 Oral | 超越HunyuanVideo!字节开源首个工业级720p视频生成自回归模型

AI生成未来

随机量化器深度(SQD):在训练中,以概率 随机丢弃最后 个量化尺度,形成 种训练路径。此举强制模型在早期尺度中编码更多信息,缓解“末层滥用”问题。如图3...

23110

Stability AI最新重磅工作发布!突破设备限制:SD3.5-Flash让高效图像生成触手可及

AI生成未来

流匹配。扩散模型是一类生成模型,其学习一条从(高斯)噪声到数据的轨迹,并通过迭代地遵循该轨迹从采样的噪声生成媒体。这条从噪声到数据的轨迹通常在基于分数的生成框架...

13210

102_隐写术进阶:图像频域隐写技术深度解析——从DCT变换到小波隐写的完整实现指南

安全风信子

隐写术作为信息安全领域的重要分支,正在随着数字技术的发展而不断演进。如果说LSB隐写技术是隐写术领域的基础入门,那么频域隐写技术则代表了更高级、更安全的隐写方法...

27410

129_量化技术:INT8与动态量化 - 推导压缩的精度损失公式

安全风信子

量化感知训练是在模型训练过程中就考虑量化误差的方法。通过在训练过程中模拟量化和反量化操作,模型可以学习适应量化带来的精度损失。这种方法通常能够获得最佳的量化效果...

22510

118_LLM模型量化与压缩:从理论到2025年实践技术详解

安全风信子

训练时量化是在模型训练过程中模拟量化误差的量化方法。通过在训练过程中引入量化噪声,模型可以学习适应量化带来的精度损失。

30110

101_参数高效微调_QLoRA技术深度解析与实践

安全风信子

NF4(NormalFloat 4-bit)是QLoRA引入的一种创新数据类型,专为量化服从正态分布的模型权重而设计。与传统的整数量化(如Int4)和浮点量化(...

23610

90_推理优化:性能调优技术

安全风信子

随着大型语言模型(LLM)规模的不断扩大和应用场景的日益复杂,推理性能已成为制约模型实际部署和应用的关键因素。尽管大模型在各项任务上展现出了令人惊艳的能力,但其...

14810

79_边缘设备环境:Raspberry Pi搭建

安全风信子

目前,用于LLM的主要量化方法包括后训练量化(PTQ)和量化感知训练(QAT)。对于树莓派部署,PTQ通常是更实用的选择,因为它不需要重新训练模型。

15610

64_模型部署:推理优化策略

安全风信子

随着人工智能技术的飞速发展,大型语言模型(LLM)在自然语言处理、多模态理解等领域展现出惊人的能力。然而,将这些模型从实验室环境部署到实际生产系统中,面临着诸多...

23210

59_实时性模型:选择低延迟LLM

安全风信子

2025年,LLM量化技术已经从简单的位宽压缩发展为复杂的混合精度策略。以下是主要的量化技术分类:

19910

67_Transformers库进阶:模型加载与配置优化

安全风信子

随着大型语言模型(LLM)技术的迅速发展,Hugging Face的Transformers库已经成为LLM开发和应用的标准工具包。作为一个开源的深度学习库,T...

27110
领券