Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >基于腾讯云云服务器CVM初探Langchain-Chatchat

基于腾讯云云服务器CVM初探Langchain-Chatchat

原创
作者头像
buzzfrog
修改于 2024-03-07 10:29:15
修改于 2024-03-07 10:29:15
1.1K1
举报
文章被收录于专栏:云上修行云上修行

在数字化时代,数据的安全存储与高效检索是科技界持续关注的热点。近年来,大语言模型(LLM)的崛起不仅在自然语言处理领域引起了革命性的变革,也对知识库问答系统提出了新的解决方案。最近,一个名为Langchain-Chatchat的开源项目,利用最新的技术研发动态,引起了科技界的广泛关注。本文旨在深入探索Langchain-Chatchat的核心技术、实现机制、安装配置及其未来发展前景。

Langchain-Chatchat简介

Langchain-Chatchat是一个基于ChatGLM等大型语言模型和Langchain等应用框架,支持全开源、可离线部署的检索增强生成(RAG)大模型知识库项目。该项目的目标是创建一套对中文场景和开源模型支持友好、能够在离线环境下运行的知识库问答解决方案。

项目的灵感来源于GanymedeNil的document.ai和AlexZhangji创建的ChatGLM-6B Pull Request,通过完全开源模型来实现本地知识库问答,有效解决数据安全保护和私域化部署的现实需求。

技术架构与实现机制

Langchain-Chatchat依托于langchain框架,结合大语言模型,如Vicuna, Alpaca, LLaMA, Koala, RWKV等进行问答生成,过程包括加载文件、读取文本、文本分割、文本向量化、问句向量化、在文本向量中匹配出与问句向量最相似的top k个文档,并将其作为上下文加入到prompt中,最后通过LLM生成回答。

此外,项目支持全流程使用开源模型进行离线私有部署。适配多种本地向量数据库,如FAISS、milvus/pg_vector等,愈加便利于用户的灵活使用与研究。

腾讯云服务器CVM配置

硬盘存储务必80GB以上。

Langchain-Chatchat部署

ssh ubuntu@外网IP地址 登录到服务器后,执行如下命令:

代码语言:bash
AI代码解释
复制
# 安装docker.io
sudo apt install -y docker.io
usermod -aG docker ubuntu

退出后使用ssh ubuntu@外网IP地址 重新登录。

安装nvidia-container-toolkit(nvidia-docker2的最新代替品)

代码语言:bash
AI代码解释
复制
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
  && curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
    sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
    sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
# 安装nvidia-container-toolkit,这是nvidia-docker的代替品
sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit
sudo systemctl restart docker

测试nvidia-container-toolkit是否安装成功:

代码语言:bash
AI代码解释
复制
docker run --rm --gpus all nvidia/cuda:12.3.2-base-ubuntu20.04 nvidia-smi
代码语言:bash
AI代码解释
复制
docker pull registry.cn-beijing.aliyuncs.com/chatchat/chatchat:0.2.7
docker run -d --gpus all -p 80:8501 -p 8080:7861 registry.cn-beijing.aliyuncs.com/chatchat/chatchat:0.2.7

这样启动的服务,80端口是基于steamlit的网站,而8080端口是API

试用Langchain-Chatchat

在浏览器中,输入 http://外网IP地址:80 。进入LangChain-Chatchat网站。

可以在【知识库管理】Tab页中添加文档。在【对话】Tab页中进行询问。

在浏览器中,输入 http://外网IP地址:8080/docs 。可以看到swagger样式的API文档。

其对应的显存使用量为:

开源与社区发展

Langchain-Chatchat遵循Apache License,免费商用,旨在解决企业数据安全保护的痛点。该项目不仅获得了超过20K的star,还在各类开源项目竞赛和黑客马拉松中斩获奖项,显示了其在开源社区中的影响力与认可。

项目的未来发展计划同样引人注目,0.2.x系列将停止更新和技术支持,项目组将全力研发更加具有应用性的0.3.x系列,展现了该项目持续进化、不断完善的发展态势。

未来展望

随着数字化转型的加速,数据的隐私保护和高效利用将成为企业未来发展的一大关键。Langchain-Chatchat的问答解决方案,通过支持全栈开源技术和可离线部署,为企业提供了一个既安全又灵活的选择。项目的持续发展和优化,预示着在未来的知识库问答系统领域,Langchain-Chatchat极有可能成为标杆性的解决方案。

Langchain-Chatchat项目不仅技术先进、理念新颖,而且通过开源社区的协作,为全球的研究人员和企业提供了一个展示创意、实验新思路的平台。这一点,无疑将加速各行业对话式AI和知识库问答技术的探索与应用。

总之,Langchain-Chatchat代表了开源社区在知识管理和自然语言处理领域的一次重要尝试。随着项目的持续成熟和社区的进一步壮大,我们有理由相信,Langchain-Chatchat将在未来的技术革新道路上发挥更加重要的作用。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
1 条评论
热度
最新
真的能实现吗,我花1个小时配置好,然后最后一步结束点开浏览器终端又再下数据
真的能实现吗,我花1个小时配置好,然后最后一步结束点开浏览器终端又再下数据
回复回复点赞举报
推荐阅读
编辑精选文章
换一批
使用腾讯云云服务器CVM玩转isaac sim
本文主要描述如何使用腾讯云云服务器容器部署isaac sim,并运行standalone模式的程序。
buzzfrog
2025/01/15
1.4K2
使用腾讯云云服务器CVM玩转isaac sim
快速搭建dify和deepseek,让普通人也能轻松训练AI
AI已然成为当今的热门话题。过去,由于私有化部署成本极高,大多数使用者仅停留在简单的问答阶段,极少有人尝试训练大模型。然而,随着DeepSeek R1的问世,其部署成本仅为chatGPT的十分之一,这让许多企业和个人看到了参与的希望。未来,必将有越来越多的垂直领域AI大模型或应用出现,这或许是一个巨大的机遇。那么,普通人要如何参与呢?要如何训练自己的AI呢?本文将介绍一种简单且无需编写代码的方法,帮助您轻松训练AI应用。
SRE运维手记
2025/02/20
5461
快速搭建dify和deepseek,让普通人也能轻松训练AI
机器学习筑基篇,容器调用显卡计算资源,Ubuntu 24.04 快速安装 NVIDIA Container Toolkit!
描述:NVIDIA Container Toolkit(容器工具包)使用户能够构建和运行 GPU 加速的容器,该工具包括一个容器运行时库和实用程序,用于自动配置容器以利用 NVIDIA GPU。
全栈工程师修炼指南
2024/07/16
4.4K0
机器学习筑基篇,容器调用显卡计算资源,Ubuntu 24.04 快速安装 NVIDIA Container Toolkit!
docker中如何使用GPU
1. 系统已经安装好GPU驱动,CUDA,这里使用腾讯云自动安装驱动来安装GPU驱动和CUDA
Sync
2024/07/04
1.9K0
基于 LLM 的 AI OPS 探索系列 - 搭建支持 GPU 的 Kubernetes 集群
在本次 workshop 中,我们介绍了如何使用 K3S 在 AWS 上设置支持 GPU 的 Kubernetes 集群,安装 NVIDIA 驱动和插件,以及部署验证测试运行 GPU 工作负载。
行者深蓝
2024/07/15
3410
Triton Inference Server调研
用户请求通过HTTP或gRPC接口发送到triton server,triton根据支持的多种调度策略、批量算法,把请求路由到不同的框架后端(如Pytorch、ONNX等)。
aaronwjzhao
2025/01/09
6090
在 Kubernetes 上使用 CUDA
随着大语言模型(LLM)时代的到来,我一直想玩玩一些开源的自托管小工具。我正在使用一台老工作站作为家庭实验室,方便的是它安装了一个老的 NVIDIA GPU。由于我正在运行一个 Kubernetes 集群,我希望将 GPU 暴露给工作负载,以便利用现有的基础设施轻松托管、调度和部署 GPU 助力的应用程序。
云云众生s
2024/03/28
7190
【教程】创建NVIDIA Docker共享使用主机的GPU
小锋学长生活大爆炸
2025/05/24
3160
【教程】创建NVIDIA Docker共享使用主机的GPU
Docker容器中使用GPU
容器封装了应用程序的依赖项,以提供可重复和可靠的应用程序和服务执行,而无需整个虚拟机的开销。如果您曾经花了一天的时间为一个科学或 深度学习 应用程序提供一个包含大量软件包的服务器,或者已经花费数周的时间来确保您的应用程序可以在多个 linux 环境中构建和部署,那么 Docker 容器非常值得您花费时间。
小陈运维
2021/12/09
1.1K0
基于 Docker 的深度学习环境:入门篇
这段时间,不论是 NLP 模型,还是 CV 模型,都得到了极大的发展。有不少模型甚至可以愉快的在本地运行,并且有着不错的效果。所以,经常有小伙伴对于硬件选择,基础环境准备有这样、那样的问题。
soulteary
2023/03/22
1.8K0
Win10下配置WSL2使用CUDA搭建深度学习环境
操作系统:Windows 10 专业版 22H2(保系统版本高于windows10 21H2或Windows11)
御坂妹
2024/11/04
2.7K0
开源、离线、免费商用的大模型知识库来袭!快速搭建个人和企业私有智能知识库!
你是否也有这样的桌面?为了方便找材料,全部放到了桌面,最后结果就是“用起一时爽,找起火葬场”。
释然IT杂谈
2024/04/26
4.4K0
开源、离线、免费商用的大模型知识库来袭!快速搭建个人和企业私有智能知识库!
玩转 AIGC:打造 AI 大模型云主机,Ubuntu 24.04 LTS 安装 Docker 和 NVIDIA Container Toolkit
今天分享的内容是 玩转 AIGC「2024」 系列文档中的 打造本地 AI 大模型地基,Ubuntu 24.04 LTS 安装 Docker 和 NVIDIA Container Toolkit。
运维有术
2024/05/07
1.3K0
玩转 AIGC:打造 AI 大模型云主机,Ubuntu 24.04 LTS 安装 Docker 和 NVIDIA Container Toolkit
使用Docker安装TensorFlow ,并设置GPU/CPU支持
一、Ubunutu20.4系统设置root登录及密钥登录 1、进入服务器主界面,将系统更换为Ubuntu20.4 https://console.cloud.tencent.com/cvm/insta
用户5481900
2022/05/26
2K0
基于LangChain-Chatchat实现的本地知识库的问答应用-快速上手(检索增强生成(RAG)大模型)
基于 ChatGLM 等大语言模型与 Langchain 等应用框架实现,开源、可离线部署的检索增强生成(RAG)大模型知识库项目。
汀丶人工智能
2024/05/07
1.9K0
基于LangChain-Chatchat实现的本地知识库的问答应用-快速上手(检索增强生成(RAG)大模型)
Docker容器如何优雅使用NVIDIA GPU
Docker 容器不会自动看到您系统的 GPU。这会导致依赖 GPU 的工作负载(例如机器学习框架)的性能降低。以下是将主机的 NVIDIA GPU 公开给容器的方法。
我的小碗汤
2021/12/24
58.4K0
Docker容器如何优雅使用NVIDIA GPU
CentOS本地部署语言模型
2.屏蔽linux系统自带的开源英伟达显卡驱动nouveau。编辑/lib/modprobe.d/dist-blacklist.conf文件。
小新笔记坊
2025/02/13
1940
基于LangChain-Chatchat实现的本地知识库的问答应用-快速上手(检索增强生成(RAG)大模型)
基于 ChatGLM 等大语言模型与 Langchain 等应用框架实现,开源、可离线部署的检索增强生成(RAG)大模型知识库项目。
汀丶人工智能
2024/05/06
1.3K0
基于LangChain-Chatchat实现的本地知识库的问答应用-快速上手(检索增强生成(RAG)大模型)
基于LangChain+GLM搭建知识本地库
一种利用langchain思想实现的基于本地知识库的问答应用,目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。
计算机视觉研究院
2023/08/24
1.3K0
基于LangChain+GLM搭建知识本地库
基于RDS PostgreSQL与Dify平台构建AI应用
Dify是一款开源的大语言模型(LLM)应用开发平台。它将后端即服务(Backend as Service)与LLMOps理念相结合,使开发者能够迅速构建生产级的生成式AI应用。本文将介绍如何基于RDS PostgreSQL与Dify平台构建智能问答应用。
繁华是客
2025/03/20
4290
基于RDS PostgreSQL与Dify平台构建AI应用
推荐阅读
相关推荐
使用腾讯云云服务器CVM玩转isaac sim
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档