首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >[大模型]QAnything纯Python环境安装教程

[大模型]QAnything纯Python环境安装教程

作者头像
云未归来
发布2025-07-20 15:40:23
发布2025-07-20 15:40:23
7600
代码可运行
举报
运行总次数:0
代码可运行

安装

要求:

  • Python 3.10+ (建议使用aoaconda3来管理Python环境)
  • System
    • Linux: glibc 2.28+ and Cuda 12.0+ (如果使用GPU)
    • Windows: WSL with Ubuntu 20.04+ and GEFORCE EXPERIENCE 535.104+ (如果使用GPU)
    • MacOS: M1/M2/M3 Mac with Xcode 15.0+

请创建一个干净的Python虚拟环境,以避免潜在冲突(推荐使用Anaconda3)。

安装软件包,请运行:

代码语言:javascript
代码运行次数:0
运行
复制
conda create -n qanything-python python=3.10
conda activate qanything-python
git clone -b qanything-python-v1.3.1 https://github.com/netease-youdao/QAnything.git
cd QAnything
pip install -e .

在Windows WSL或Linux环境下运行3B大模型(MiniChat-2-3B)要求显存>=10GB

代码语言:javascript
代码运行次数:0
运行
复制
bash scripts/run_for_3B_in_Linux_or_WSL.sh

在Windows WSL或Linux环境下运行7B大模型(自研Qwen-7B-QAnything)要求显存>=24GB

代码语言:javascript
代码运行次数:0
运行
复制
bash scripts/run_for_7B_in_Linux_or_WSL.sh

在Windows WSL或Linux环境下运行Openai API,仅使用CPU

在scripts/run_for_openai_api_with_cpu_in_Linux_or_WSL.sh中补充api-key等参数

代码语言:javascript
代码运行次数:0
运行
复制
bash scripts/run_for_openai_api_with_cpu_in_Linux_or_WSL.sh

在Windows WSL或Linux环境下运行Openai API,使用GPU

在scripts/run_for_openai_api_with_gpu_in_Linux_or_WSL.sh中补充api-key等参数

代码语言:javascript
代码运行次数:0
运行
复制
bash scripts/run_for_openai_api_with_gpu_in_Linux_or_WSL.sh

在M1Mac环境下使用Openai API

在scripts/run_for_openai_api_in_M1_mac.sh中补充api-key等参数

代码语言:javascript
代码运行次数:0
运行
复制
bash scripts/run_for_openai_api_in_M1_mac.sh

在M1Mac环境下使用4BLLM(Qwen1.5-4B-Chat-GGUF)

Mac上建议使用Openai API, Qwen 4B/7B模型效果不佳

代码语言:javascript
代码运行次数:0
运行
复制
bash scripts/run_for_4B_in_M1_mac.sh

在M1Mac环境下使用7BLLM(Qwen1.5-7B-Chat-GGUF)

Mac上建议使用Openai API, Qwen 4B/7B模型效果不佳

代码语言:javascript
代码运行次数:0
运行
复制
bash scripts/run_for_7B_in_M1_mac.sh

访问前端页面

在浏览器中打开http://127.0.0.1:8777/qanything/

或者打开http://{主机ip地址}:8777/qanything/

即可使用UI界面

注意末尾的斜杠不可省略,否则会出现404错误

API 文档

API.md

API访问示例
代码语言:javascript
代码运行次数:0
运行
复制
python scripts/new_knowledge_base.py  # print kb_id
python scripts/upload_files.py <kb_id> scripts/weixiaobao.jpg  # print file_id
python scripts/list_files.py <kb_id>  # print files status
python scripts/stream_file.py <kb_id> # print llm res
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2025-07-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 安装
  • 在Windows WSL或Linux环境下运行3B大模型(MiniChat-2-3B)要求显存>=10GB
  • 在Windows WSL或Linux环境下运行7B大模型(自研Qwen-7B-QAnything)要求显存>=24GB
  • 在Windows WSL或Linux环境下运行Openai API,仅使用CPU
  • 在Windows WSL或Linux环境下运行Openai API,使用GPU
  • 在M1Mac环境下使用Openai API
  • 在M1Mac环境下使用4BLLM(Qwen1.5-4B-Chat-GGUF)
  • 在M1Mac环境下使用7BLLM(Qwen1.5-7B-Chat-GGUF)
  • 访问前端页面
  • API 文档
    • API访问示例
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档