
LangChain的基本构建块是LLM,集成了各种大模型语言,它接收文本并生成文本。
聊天模型是语言模型的变体。虽然聊天模型在后台使用语言模型,但它们公开的接口有点不同:它们不是公开“文本输入,文本输出”API,而是将聊天消息列表作为输入并返回聊天消息
支持参数

predict 直接交互的接口
大多数LLM应用程序不会将用户输入直接传递到LLM。通常,他们会将用户输入添加到称为提示模板的较大文本中,该文本为特定任务提供额外的上下文。

Chains
我们已经有了模型和提示模板,我们需要将两者结合起来。链为我们提供了一种将多个原语链接(或链接)在一起的方法,例如models、prompts和其他 chains
上面的链是运行确定的步骤,为了处理复杂工作流程,我们需要根据动态选择操作
代理工作过程
要运行代码
在本次例子中使用SerpAPI来搜索引擎

Memory
Chain和Agent是无状态的,如果你想理解上下文消息就得使用 Memory,它允许您在给定最新运行输入和输出的情况下更新状态,并允许您使用存储(上下文)作为下一个输入。
有许多内置Memory系统。其中最简单的是buffer memory,它只是将最后几个输入/输出附加到当前输入
