首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >基于LangChain的大模型对话简单demo

基于LangChain的大模型对话简单demo

作者头像
小博测试成长之路
发布2025-11-12 20:24:23
发布2025-11-12 20:24:23
1200
举报
文章被收录于专栏:软件测试学习软件测试学习

LangChain Python 提供了一个庞大的生态系统,拥有 1000 多个集成,涵盖聊天与嵌入模型、工具与工具包、文档加载器、向量存储等。

详细的介绍可以点击下面的链接查看:https://docs.langchain.com/oss/python/integrations/providers/overview

现在看一下怎么通过python脚本使用langchain-deepseek连接deepseek模型进行对话:

https://reference.langchain.com/python/integrations/langchain_deepseek/

链接中还有流式输出、非流式输出、结构化输出、异步调用和工具调用的相关用法介绍,感兴趣的可以自己研究:

代码语言:javascript
复制
def get_deepseek_model():
    # pip install -U langchain-deepseek
    os.environ["DEEPSEEK_API_KEY"] = "sk-xxxxxxxxx"  # 也可以在下面的api_key设置key
    model = ChatDeepSeek(
        model="deepseek-reasoner",    #  deepseek-chat, deepseek-reasoner
        temperature=0,
        max_tokens=None,
        timeout=None,
        max_retries=2,
        #api_key="...",
        # other params...
    )
    return model
llm = get_deepseek_model()
response = llm.invoke("你好,你是谁? ")
print(response)
代码语言:javascript
复制
 

deepseek-chat, deepseek-reasoner有什么区别?

  • 运行方式
    1. deepseek-chat:走「非思考模式」——像常规大模型一样“秒回”,适合日常对话、创意写作、客服问答。
    2. deepseek-reasoner:走「思考模式」——内部会先产生一串 Chain-of-Thought(思维链)再给出答案,逻辑更严谨,适合数学、编程、复杂推理题。
  • 输出内容
    1. chat 模式只返回最终答案;reasoner 模式在 API 里会额外给出字段 reasoning_content,你可以看到它一步步的思考过程。
  • 速度与成本
    1. chat 模式响应快,价格相对便宜一点。
    2. reasoner 模式因要生成思维链,响应慢一些,价格贵一些。
    3. 具体收费标准可参考官网介绍:https://api-docs.deepseek.com/zh-cn/quick_start/pricing/
  • 参数支持
    1. chat 模式支持 temperature、top_p 等“创意”参数;reasoner 模式为了保证逻辑一致性,禁用这些随机性参数。
  • 使用入口
    1. 网页端:在聊天框里关掉“深度思考(DeepThink)”就是 chat 模式,打开就是 reasoner 模式。
    2. API 端:model 字段填 deepseek-chat 或 deepseek-reasoner 即可切换。

一句话总结:

“想闲聊、写文案、快响应”用 deepseek-chat;“要解题、写算法、看推理步骤”用 deepseek-reasoner——其实就是同一个模型,只是让不让它“先想后答”

LangChain 的Chat models

LangChain 支持通过统一的接口,从任意支持的模型提供商进行初始化聊天模型。

代码语言:javascript
复制
from langchain.chat_models import init_chat_model
init_chat_model(
    model: str | None = None,
    *,
    model_provider: str | None = None,
    configurable_fields: Literal["any"] | list[str] | tuple[str, ...] | None = None,
    config_prefix: str | None = None,
    **kwargs: Any,
) -> BaseChatModel | _ConfigurableModel
代码语言:javascript
复制

https://reference.langchain.com/python/langchain/models

从上面的文档中可以看到相关的model_provider的介绍,点击相关的链接可以看模型的相关使用介绍:

总结

看完上面的内容的话,基本上就可以写一个简单的基于langchain的大模型基础对话的简单脚本了,关注我,后面会不定期更新其他内容。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-11-01,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 小博测试成长之路 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • deepseek-chat, deepseek-reasoner有什么区别?
  • LangChain 的Chat models
  • 总结
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档