首页
学习
活动
专区
圈层
工具
发布

#LLM

DSPy、QDrant与ReAct框架的LLM记忆层构建:向量嵌入实现用户对话记忆自适应管理|附代码数据

拓端

需要特别说明的是,上述所有步骤都应设计为可选流程:若LLM无需调用历史记忆即可回答用户问题,则无需触发向量库检索,以此降低系统开销。核心策略是为LLM提供完成任...

1610

SCALE 一月榜单发布:国产大模型在 AI4DB 领域上的水平如何?

爱可生开源社区

2026 年伊始,SCALE 评测框架迎来了重要进化。本月,我们不仅迎来了 智谱 GLM-4.7 与 字节跳动 Seed-OSS-36B-Instruct 的入...

5010

你知道什么是LLM 蒸馏技术吗?

ETL 小当家

LLM 蒸馏 (Distillation) 是一种技术,用于将大型语言模型 (LLM) 的知识转移到较小的模型中。其主要目的是在保持模型性能的同时,减少模型的大...

8310

用 CANN 部署大语言模型(LLM)实战指南:让百亿参数“跑”在国产硬件上

晚霞的不甘

本文将带你完成一次完整的 LLM 部署实战——以 Llama-2-7B 为例,展示如何利用 CANN 实现:

5510

18:HalluGuard LLM幻觉风险边界深度解析

安全风信子

大型语言模型(LLM)的快速发展为自然语言处理领域带来了革命性的变化,在文本生成、问答系统、机器翻译等任务中展现出了令人惊叹的能力。然而,随着LLM在越来越多高...

7310

2核2G服务器跑270M LLM模型[测试]

MGS浪疯

腾讯云TDP | 会员 (已认证)

本文仅为技术测试用途。实际部署中存在诸多变量,结果可能因环境差异而不同,请勿将其视为生产环境的参考依据。

17120

三步入门:利用 Dify 可视化工作流连接 LLM 与工具

霍格沃兹-测试开发学社

在AI应用开发领域,如何快速将大语言模型(LLM)与实际工具连接起来,一直是开发者面临的实际挑战。传统编码方式需要处理复杂的API调用、数据转换和错误处理,而D...

21510

《AI 为何总在“一本正经地胡说八道”?—— 全面解析 LLM 幻觉的成因与防御策略》

沈宥

LLM 的知识完全来源于其训练数据。如果训练数据本身存在以下问题,模型就必然会学到并放大这些问题:

18010

LLM 系列(十九):前馈神经网络 FFN

磊叔的技术博客

当我们谈到 Transformer 模型时,往往聚光灯都会打在 自注意力机制(Self-Attention) 上。然而,Transformer 中还有一个 “不...

12310

qKnow 知识平台商业版 v2.6.1 正式发布:移除对第三方 LLM 应用框架的依赖,一次真正走向自主可控的里程碑升级

吴同

在大模型快速演进的今天,真正拉开产品差距的,不只是模型效果,而是系统的独立性、可控性与可持续演进能力。

7400

Claude Code 2026 最新保姆级安装指南

别惹CC

腾讯云TDP | 先锋会员 (已认证)

本文将带各位读者一步步完成Claude Code的安装,并通过“魔改”配置解锁第三方端点支持,让你摆脱官方的限制,实现更灵活的 AI 编程体验。

4.2K40

RAG、LLM、AI Agent到底谁是谁的谁?

臻成AI大模型

上个月和一个做AI创业的朋友聊天,他苦笑着说:"我现在面试工程师,三句话都离不开LLM、RAG、AI Agent这几个词,但说实话,我自己对这三个概念也不是特别...

9410

Agentic上下文工程真能杀死LLM微调?

臻成AI大模型

如果每次学习新技能都要重新组装大脑,人类还能成为万物之灵吗?可这就是当前AI训练的常态——每遇到新任务就得或多或少的"回炉重造"——微调(Fine-Tuning...

8210

解密Prompt系列69. 从上下文管理到Runtime操作系统

风雨中的小七

在 LLM 发展的上半场,我们执着于不断拉长 Context Window,从 8K 到 128K 甚至百万级别。但在下半场,资深开发者们逐渐意识到:盲目拉长上...

21010
领券