首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >LangChain学习:使用大语言模型构建应用程序

LangChain学习:使用大语言模型构建应用程序

作者头像
yeedomliu
发布2023-09-03 12:45:16
发布2023-09-03 12:45:16
5340
举报
文章被收录于专栏:yeedomliuyeedomliu

思维导图

介绍

  1. 是一个使用语言模型构建端到端的应用程序的强大框架
  2. 可以轻松管理与语言模型的交互,将多个组件链接在一起,并集成额外的资源,例如 API 和数据库。

安装

代码语言:javascript
复制

快速入门

LLMs

LangChain的基本构建块是LLM,集成了各种大模型语言,它接收文本并生成文本。

代码语言:javascript
复制

Chat models

聊天模型是语言模型的变体。虽然聊天模型在后台使用语言模型,但它们公开的接口有点不同:它们不是公开“文本输入,文本输出”API,而是将聊天消息列表作为输入并返回聊天消息

支持参数

  1. AIMessage
  2. ChatMessage
  3. SystemMessage
  4. HumanMessage

predict 直接交互的接口

代码语言:javascript
复制

Prompt templates

大多数LLM应用程序不会将用户输入直接传递到LLM。通常,他们会将用户输入添加到称为提示模板的较大文本中,该文本为特定任务提供额外的上下文。

Chains

我们已经有了模型和提示模板,我们需要将两者结合起来。链为我们提供了一种将多个原语链接(或链接)在一起的方法,例如models、prompts和其他 chains

代码语言:javascript
复制

Agents

上面的链是运行确定的步骤,为了处理复杂工作流程,我们需要根据动态选择操作

代理工作过程

  1. 使用语言模型确定执行操作和顺序
  2. 访问和选择工作,运行并观察输出,直到得到最终答案

要运行代码

  1. 选择模型:LLM/Chat Mode
  2. 工具:google、数据库、Python REPL、Chains
  3. Agent名字

在本次例子中使用SerpAPI来搜索引擎

Memory

Chain和Agent是无状态的,如果你想理解上下文消息就得使用 Memory,它允许您在给定最新运行输入和输出的情况下更新状态,并允许您使用存储(上下文)作为下一个输入。

有许多内置Memory系统。其中最简单的是buffer memory,它只是将最后几个输入/输出附加到当前输入

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-06-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 yeedomliu 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 思维导图
  • 介绍
  • 安装
  • 快速入门
    • LLMs
    • Chat models
    • Prompt templates
    • Agents
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档