Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Vanna 离线环境部署

Vanna 离线环境部署

作者头像
AlphaHinex
发布于 2024-06-11 09:24:35
发布于 2024-06-11 09:24:35
2.4K217
代码可运行
举报
文章被收录于专栏:周拱壹卒周拱壹卒
运行总次数:17
代码可运行

unsetunsetVanna 简介unsetunset

Vanna[1] 是一个 MIT 许可的开源 Python RAG(Retrieval-Augmented Generation)框架,可以用来以对话形式与 SQL 数据库交互。

Vanna 提供两种使用方式:

  1. 代码调用,如 vn.ask("What are the top 10 customers by sales?")
  2. 基于 Flash 的 Web 应用[2]

web-app

工作原理

how

Vanna 的工作原理与通常的 RAG 原理类似,即:

  1. 先将数据库表的元数据信息、DDL 语句、SQL 查询问答对等信息向量化,存储在向量库中;
  2. 用户提问时,将问题与向量库中的信息向量进行匹配,找到相关的信息向量,然后将问题和信息向量组织成提示词输入到 LLM 中,生成 SQL 查询语句;
  3. 用户可对生成的 SQL 进行反馈,正确的 SQL 会被添加到向量库以提高后续问答的精度。

unsetunset离线环境使用unsetunset

Quickstart With Sample Data[3] 中提供的示例代码需要从 vanna.ai[4] 获得注册邮箱对应的 api_key

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
!pip install vanna
import vanna
from vanna.remote import VannaDefault
vn = VannaDefault(model='chinook', api_key=vanna.get_api_key('my-email@example.com'))
vn.connect_to_sqlite('https://vanna.ai/Chinook.sqlite')
vn.ask("What are the top 10 albums by sales?")

离线环境使用时,可以选择构建自定义类型的 Vanna 对象,避免对 vanna.ai 在线环境的依赖。

Quickstart With Your Own Data[5] 中,可以根据部署环境选择实际需要使用的 LLM、向量库 和 数据库类型。

以下以 OpenAI + ChromaDB + MySQL[6] 为例进行说明。

Setup

安装依赖(可通过内网源或构建镜像):

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ pip install 'vanna[chromadb,openai,mysql]'

准备向量嵌入模型文件,放至 ~/.cache/chroma/onnx_models/all-MiniLM-L6-v2/onnx.tar.gz

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ wget https://chroma-onnx-models.s3.amazonaws.com/all-MiniLM-L6-v2/onnx.tar.gz

也可从 ModelScope all-MiniLM-L6-v2[7] 下载。

构建 Vanna 实例,使用兼容 OpenAI 接口的本地 LLM:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
from openai import OpenAI


client = OpenAI(api_key='sk-xxx', base_url='http://127.0.0.1:19131/v1/')

class MyVanna(ChromaDB_VectorStore, OpenAI_Chat):
    def __init__(self, config=None):
        ChromaDB_VectorStore.__init__(self, config=config)
        OpenAI_Chat.__init__(self, client=client, config=config)

vn = MyVanna(config={'model': 'qwen1.5-72b-chat'})

配置数据库连接:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
vn.connect_to_mysql(host='my-host', dbname='my-db', user='my-user', password='my-password', port=123)

“训练”

准备“训练”数据:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# The information schema query may need some tweaking depending on your database. This is a good starting point.
df_information_schema = vn.run_sql("SELECT * FROM INFORMATION_SCHEMA.COLUMNS")

# This will break up the information schema into bite-sized chunks that can be referenced by the LLM
plan = vn.get_training_plan_generic(df_information_schema)
print(plan)

执行“训练”:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# If you like the plan, then uncomment this and run it to train
vn.train(plan=plan)

这里的“训练”,实际相当于是对数据进行向量化,并添加至向量库,并不涉及对 LLM 的权重调整。

可随时补充“训练”数据:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# The following are methods for adding training data. Make sure you modify the examples to match your database.

# DDL statements are powerful because they specify table names, colume names, types, and potentially relationships
vn.train(ddl='''
    CREATE TABLE IF NOT EXISTS my-table (
        id INT PRIMARY KEY,
        name VARCHAR(100),
        age INT
    )
''')

# Sometimes you may want to add documentation about your business terminology or definitions.
vn.train(documentation="Our business defines OTIF score as the percentage of orders that are delivered on time and in full")

# You can also add SQL queries to your training data. This is useful if you have some queries already laying around. You can just copy and paste those from your editor to begin generating new SQL.
vn.train(sql="SELECT * FROM my-table WHERE name = 'John Doe'")

查看“训练数据”:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# At any time you can inspect what training data the package is able to reference
training_data = vn.get_training_data()
print(training_data)

或删除“训练数据”:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# You can remove training data if there's obsolete/incorrect information. 
vn.remove_training_data(id='1-ddl')

对话

对话时,vanna 会从“训练”数据中找出 10 个最相关的信息向量,将其作为输入给 LLM 的提示词的一部分,用以辅助生成 SQL:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
vn.ask(question='有哪些表')

启动 Web App

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
from vanna.flask import VannaFlaskApp
VannaFlaskApp(vn, allow_llm_to_see_data=True).run(port=8085, host='0.0.0.0')

上面代码会在 8085 端口启动一个 Vanna Flask Web App,更多参数设置可见 Customization[8]

‍‍‍‍plotly

unsetunset相关资料

[1]

Vanna: https://github.com/vanna-ai/vanna

[2]

Web 应用: https://vanna.ai/docs/web-app/

[3]

Quickstart With Sample Data: https://vanna.ai/docs/app/

[4]

vanna.ai: https://vanna.ai/

[5]

Quickstart With Your Own Data: https://vanna.ai/docs/postgres-openai-vanna-vannadb/

[6]

OpenAI + ChromaDB + MySQL: https://vanna.ai/docs/mysql-openai-standard-chromadb/

[7]

ModelScope all-MiniLM-L6-v2: https://www.modelscope.cn/models/wengad/all-MiniLM-L6-v2/files

[8]

Customization: https://vanna.ai/docs/web-app/#customization

[9]

Vanna Docs: Local: https://vanna.ai/docs/local.html

[10]

vanna+qwen实现私有模型的SQL转换: https://developer.aliyun.com/article/1464026

[11]

TEXT2SQL工具vanna本地化安装和应用: https://blog.csdn.net/wengad/article/details/138675869

[12]

ModelScope all-MiniLM-L6-v2: https://www.modelscope.cn/models/wengad/all-MiniLM-L6-v2/files

[13]

how to set allow_llm_to_see_data=True: https://github.com/vanna-ai/vanna/discussions/289

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-06-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 周拱壹卒 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
2 条评论
热度
最新
client = OpenAI(api_key='sk-xxx', base_url='http://127.0.0.1:19131/v1/')调用的是本地qwen模型 url= "http://10.236.156.232:5005/72",应该怎么写呢 没有api_key
client = OpenAI(api_key='sk-xxx', base_url='http://127.0.0.1:19131/v1/')调用的是本地qwen模型 url= "http://10.236.156.232:5005/72",应该怎么写呢 没有api_key
11点赞举报
api_key 随便写个值就行
api_key 随便写个值就行
回复回复点赞举报
推荐阅读
AI 新手村:Embedding
随着大型语言模型 (LLM) 的兴起,Embedding 成为了一个备受关注的热词。那什么是 embedding 呢?embedding 中文翻译过来是嵌入,本质上就是一个向量,类似0.1,0.8,0.6....这样的形式,在很多文章里,我们可以看到嵌入向量(embedding vector)这样的描述。
dsy
2025/04/16
2360
AI 新手村:Embedding
NL2SQL进阶系列(3):Data-Copilot、Chat2DB、Vanna Text2SQL优化框架开源应用实践详解[Text2SQL]
NL2SQL基础系列(1):业界顶尖排行榜、权威测评数据集及LLM大模型(Spider vs BIRD)全面对比优劣分析[Text2SQL、Text2DSL]
汀丶人工智能
2024/04/16
3K0
NL2SQL进阶系列(3):Data-Copilot、Chat2DB、Vanna Text2SQL优化框架开源应用实践详解[Text2SQL]
RAG (Retrieval-Augmented Generation) 教程
在自然语言处理(NLP)领域,生成式 AI(如 GPT-4)在文本生成方面表现优异,但其主要依赖于预训练的知识,无法动态获取最新信息。为了解决这一问题,RAG(检索增强生成,Retrieval-Augmented Generation)应运而生,它结合了信息检索(IR)与文本生成(NLG)技术,使得 AI 可以利用外部知识库,提高回答的准确性和可解释性。
IT蜗壳-Tango
2025/03/31
6730
一款热门的开源sql生成AI框架—Vanna
Vanna 是一款采用 MIT 许可的开源 Python RAG (检索增强生成)框架,用于生成 SQL 语句和相关功能。
山行AI
2024/01/23
4.4K0
一款热门的开源sql生成AI框架—Vanna
使用上下文策略极大提高AI SQL 准确性
拥有一个能够回答商业用户简单的语言问题的自主人工智能智能体的承诺是一个有吸引力的提议,但迄今为止仍难以实现。许多人尝试过让 ChatGPT 进行写入,但成效有限。失败的主要原因是大语言模型对其要求查询的特定数据集缺乏了解。
大数据杂货铺
2024/03/11
6490
使用上下文策略极大提高AI SQL 准确性
SQL Assistant:Streamlit 中的文本到 SQL 应用程序
在本文中,我们将探索Vanna.ai的应用,这是一个Python 库,专门用于训练能够处理自然语言问题并生成 SQL 查询作为响应的模型。此实现将集成到 ✨Streamlit 应用程序中,创建一个 🤖 聊天机器人,方便提出问题并为返回的查询提供解释。
大数据杂货铺
2024/01/31
1.8K0
SQL Assistant:Streamlit 中的文本到 SQL 应用程序
使用open-webui+deepseek构建本地AI知识库
在设置 --> 管理员设置 --> 联网搜索 --> 启用,然后下拉选择,这里选择tavily,可以去https://app.tavily.com/注册然后获取api key,最后点击保存就可以了
code4it
2025/02/18
3.2K1
使用open-webui+deepseek构建本地AI知识库
面向AI的开发:从大模型(LLM)、检索增强生成(RAG)到智能体(Agent)的应用
在今年的敏捷团队建设中,我通过Suite执行器实现了一键自动化单元测试。Juint除了Suite执行器还有哪些执行器呢?由此我的Runner探索之旅开始了!
京东技术
2024/06/11
1.6K0
面向AI的开发:从大模型(LLM)、检索增强生成(RAG)到智能体(Agent)的应用
Chroma 向量数据入门
🌟Chroma是一个文档检索系统,它存储了一组文档以及它们相应的嵌入向量。当接收到嵌入向量后,Chroma会根据其内部的索引结构快速查找最相关的文档。
@小森
2024/09/27
2290
Chroma 向量数据入门
LLM的构建基石:向量、Token和嵌入
当你处理 LLMs 时,你经常会遇到术语“向量”,“Token”和“嵌入”。在深入构建聊天机器人和 AI 助手之前,充分理解这些概念非常重要。随着多模态方法的兴起,这些术语不仅仅局限于大型语言模型(LLMs),还可以解释图像和视频。
云云众生s
2024/03/28
7580
LLM的构建基石:向量、Token和嵌入
【RAG落地利器】向量数据库Chroma入门教程
官方有pip安装的方式,为了落地使用,我们还是采用Docker部署的方式,参考链接来自官方部署:
致Great
2025/01/23
1.6K0
【RAG落地利器】向量数据库Chroma入门教程
矢量数据库与LLM的集成:实践指南
通常,LLM会在各种各样的数据上进行训练,这使它们具有广泛的理解能力,但可能会导致在特定的知识领域存在差距。有时,它们甚至可能产生与目标无关或带有偏见的信息——这是从广阔但未经筛选的web学习的副产品。为了解决该问题,我们引入了向量数据库(Vector Database)的概念。这些数据库以一种称为"向量嵌入"的独特格式存储数据,可以让LLMs掌握和使用的信息更连贯和准确。
charlieroro
2024/03/16
4110
矢量数据库与LLM的集成:实践指南
检索增强生成(RAG)实践:基于LlamaIndex和Qwen1.5搭建智能问答系统
LLM 会产生误导性的 “幻觉”,依赖的信息可能过时,处理特定知识时效率不高,缺乏专业领域的深度洞察,同时在推理能力上也有所欠缺。
汀丶人工智能
2024/05/07
4.1K0
检索增强生成(RAG)实践:基于LlamaIndex和Qwen1.5搭建智能问答系统
向量数据库Chroma极简教程
向量数据库其实最早在传统的人工智能和机器学习场景中就有所应用。在大模型兴起后,由于目前大模型的token数限制,很多开发者倾向于将数据量庞大的知识、新闻、文献、语料等先通过嵌入(embedding)算法转变为向量数据,然后存储在Chroma等向量数据库中。当用户在大模型输入问题后,将问题本身也embedding,转化为向量,在向量数据库中查找与之最匹配的相关知识,组成大模型的上下文,将其输入给大模型,最终返回大模型处理后的文本给用户,这种方式不仅降低大模型的计算量,提高响应速度,也降低成本,并避免了大模型的tokens限制,是一种简单高效的处理手段。此外,向量数据库还在大模型记忆存储等领域发挥其不可替代的作用。
Rude3Knife的公众号
2023/11/08
2.2K0
向量数据库Chroma极简教程
用 LangChain 构建文档问答助手
随着大语言模型(LLM)的广泛应用,越来越多企业和个人希望利用它来实现“基于文档的智能问答”功能。例如:
IT蜗壳-Tango
2025/04/09
1310
LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发
Ollama 是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。,这是 Ollama 的官网地址:https://ollama.com/
汀丶人工智能
2024/08/17
1.4K0
LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发
告别人工提示,用DSPy编程
DSPy 框架旨在通过优先考虑声明式、系统化编程而不是手动编写提示来解决一致性和可靠性问题。
云云众生s
2024/07/12
3110
AI驱动TDSQL-C Serverless 数据库技术实战营-Vanna配合ollama分析TDSQL-C Serverless 数据库
经过这么长时间的迭代,大模型种类繁多,使用也越来越简单了,今天我们使用Vanna配合ollama本地大模型,基于TDSQL-C MYSQL Serverless构建智能数据库分析系统
用户11291471
2024/10/08
4130
向量检索(RAG)之向量数据库研究
研究内容主要包括:是否开源,支持的功能有哪些(是否支持暴力检索,支持哪些索引),是否有可视化界面,是否支持标量过滤。
码之有理
2025/03/05
7650
LLM在智能应用中的新突破:最新技术趋势解析
大型语言模型(LLM)作为人工智能领域的重大突破,正在彻底改变我们与技术互动的方式。从简单的文本生成到如今的多模态交互、实时处理以及跨领域协作,LLM的能力正以前所未有的速度扩展。本文将深入探讨LLM在智能应用中的最新技术趋势,并通过实际的代码示例展示这些创新如何在现实世界中发挥作用。
江南清风起
2025/03/20
1360
相关推荐
AI 新手村:Embedding
更多 >
加入讨论
的问答专区 >
1高级后端开发工程师擅长3个领域
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
    本文部分代码块支持一键运行,欢迎体验
    本文部分代码块支持一键运行,欢迎体验