首页
学习
活动
专区
圈层
工具
发布
首页标签大模型部署

#大模型部署

从 100 万到 1.6 万:LoRA 如何让微调参数缩减 98%

ETL 小当家

LoRA 全称是 Low-Rank Adaptation(低秩适配),是一种用于微调大型预训练模型的技术。简单来说,它是一种让你用很少的资源和数据,就能"教会"...

1100

边缘端LLM/VLM推理框架:TensorRT Edge-LLM

用户11764306

大型语言模型(LLM)与多模态推理系统正迅速扩展至数据中心之外。汽车与机器人领域的开发者越来越倾向于在车辆或机器人本体上直接运行对话式AI代理、多模态感知及高层...

4300

DeepSeek V4发布,改写全球AI规则,产业链全线爆发

gavin1024

摘要DeepSeek V4正式发布,携mHC架构与Engram条件记忆两大底层创新,实现百万Token上下文、算力利用率85%、推理成本降90%的核心突破,全面...

78950

2025大模型2.0:GPT到DeepSeek技术演进与产业落地报告|附200+份报告PDF汇总下载

拓端

当OpenAI在2023年推出ChatGPT时,业界或许未曾预料到,短短两年后大模型会以“2.0”形态重塑产业逻辑。本报告汇总解读基于国家工业信息安全发展研究中...

8310

RAG 入门指南:让大模型从"闭卷"变"开卷"

ETL 小当家

RAG 是一种将"信息检索"与"大语言模型生成"相结合的技术架构。简单来说,它让 AI 在回答问题之前,先去查阅相关资料,然后基于查到的内容来生成答案。你可以把...

9410

5 分钟搞懂 LLM 微调:从原理到实战

ETL 小当家

微调(Fine-tuning)是指在一个已经预训练好的大语言模型基础上,用特定领域或任务的数据继续训练,让模型更好地适应具体需求。

9210

Transformer 详解:为什么它能统治整个 AI 领域?

ETL 小当家

在 Transformer 出现之前,处理文本的主流方法是 RNN 及其改进版 LSTM。它们有几个比较头疼的问题。

33110

你知道什么是LLM 蒸馏技术吗?

ETL 小当家

LLM 蒸馏 (Distillation) 是一种技术,用于将大型语言模型 (LLM) 的知识转移到较小的模型中。其主要目的是在保持模型性能的同时,减少模型的大...

12010

推开AI的门

白玉光

当第一次体验到大模型带给你的惊喜时,你有没有想过,它到底是怎么思考的?你或许忙碌、疲惫,连思考“它是怎么思考的”都来不及去思考。可是在过去的很长时间里,模型参数...

14810

训推平台助力AI落地:大模型企业级场景化能力的构建与部署

星图云

随着大模型技术向各行业渗透,企业在应用过程中面临两大现实挑战:一方面,通用大模型难以保证特定业务场景能力调用效果的可靠性;另一方面,对于AI使用经验不足的企业,...

17410

VLM视觉模型处理过程

aaronwjzhao

以Qwen2.5 VL 3B为例,patch_size=14,输入图像按照14 * 14划分成多个patch块。对于尺寸为(H * W)的图像,视觉token数...

13211

架构演进:从确定性工作流 (Workflow) 到自主智能体 (LLM Agent)

咕泡科技

湖南咕泡网络科技有限公司 | 副总裁 (已认证)

虽然两者都以大模型(LLM)为核心引擎,但在控制流逻辑、状态管理及非确定性处理上存在本质区别。本文将通过“智慧旅游规划”这一典型场景,深度拆解两者的技术范式差异...

14410

从 Gemini 的变化,看 AI 系统设计正在发生的一个转向

用户12007056

在 AI 应用的早期阶段,系统设计往往围绕一个核心问题展开: 这个模型,够不够强?

9510
领券