部署DeepSeek模型,进群交流最in玩法!
立即加群
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >公网暴露 Ollama 端口存在风险?使用 OneAPI 聚合和保护你的模型调用

公网暴露 Ollama 端口存在风险?使用 OneAPI 聚合和保护你的模型调用

原创
作者头像
Mintimate
发布2025-03-12 10:33:07
发布2025-03-12 10:33:07
26510
代码可运行
举报
文章被收录于专栏:Mintimate's BlogMintimate's Blog
运行总次数:0
代码可运行

博客:https://www.mintimate.cn Mintimate’s Blog,只为与你分享

Ollama是一个强大的本地大语言模型运行框架,它让用户能够在本地设备上轻松运行和管理各种大语言模型。

然而,Ollama 默认端口服务没有鉴权功能,暴露在公网上的端口存在一定的风险,任何人都可以访问这些端口并调用模型;更不用说,早起版本的 Ollama 还存在 CVE-2024-39720CVE-2024-39721等高危漏洞。

为了解决这个问题,我们可以使用 OneApi 来聚合你的模型调用,实现类似于 OpenAI 一样的鉴权体验。

当然,你也可以使用 Nginx 去反向代理 Ollama 端口;但是我个人认为,还是 OneApi优雅,也方便数据统计。

OneApi

OneApi 是一个开源的 API 聚合平台,它可以将多个 API 聚合到一个统一的接口上,实现 API 的统一管理、鉴权、调用等功能。项目的地址:

举个例子,你同时有 DeepSeek 官方 API Keys 和 OpenAI API Keys,你就可以使用 OneApi 来聚合这两个 API Keys,实现统一的鉴权调用。

哈哈,真不错 ~
哈哈,真不错 ~

当然,对于 Ollama 来说,你可以设置 Ollama 的 Serve 服务,仅允许你部署 OneApi 的服务器 IP 来访问,进而,使用 OneApi 来保护你的 Ollama 端口和服务。

部署思路

首先,我们需要一台 Linux 服务器,并且安装了 Docker。之后使用 Docker 部署我们的 OneApi,最好用 OneApi 聚合 Ollama 服务,输出 API Key。

操作的流程图如下:

操作流程图
操作流程图

部署 OneApi

部署 OneApi 非常简单,首先需要一台服务器,我这里使用腾讯云的轻量应用服务器,使用的是 Debian 系统镜像:

我使用的腾讯云轻量应用服务器
我使用的腾讯云轻量应用服务器

建议新买的服务器,更新一下软件包管理器:

代码语言:bash
复制
sudo apt update
sudo apt upgrade

部署 Docker

如果你的服务器没有安装 Docker,那么需要先安装 Docker;如果你使用的是腾讯云的服务器,腾讯云服务器内网有 Docker 镜像源,可以直接拉取镜像。参考:

比如,我是 Debian 系统,那么拉取镜像的命令如下:

代码语言:bash
复制
# 安装 curl 和 证书工具
sudo apt install ca-certificates curl -y
sudo install -m 0755 -d /etc/apt/keyrings
# 添加证书
sudo curl -fsSL https://mirrors.cloud.tencent.com/docker-ce/linux/debian/gpg -o /etc/apt/keyrings/docker.asc
sudo chmod a+r /etc/apt/keyrings/docker.asc
# 添加镜像源
echo   "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.asc] https://mirrors.cloud.tencent.com/docker-ce/linux/debian/ \
  $(. /etc/os-release && echo "$VERSION_CODENAME") stable" |   sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
sudo apt update
# 安装 Docker
sudo apt install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin  

需要注意,如果你是大陆服务器,建议配置 Docker 仓库源,参考:

配置如下:

代码语言:bash
复制
# 配置 Docker 仓库源
sudo mkdir -p /etc/docker
sudo echo '{
   "registry-mirrors": [
   "https://mirror.ccs.tencentyun.com"
  ]
}' | sudo tee /etc/docker/daemon.json
sudo systemctl restart docker

你可以使用docker info 查看配置的结果:

Docker info
Docker info

哈哈,告诉大家一个小技巧: 如果你使用的是腾讯云服务器,那么你可以直接问腾讯云的智能客服,你就可以得到答案:

智能客服
智能客服

不单是智能客服,人工客服也很热情,可以随时咨询,也很专业,我有时候也会问一下产品的具体功能,赞一个。

拉取镜像

最简单的方法,就是拉取 OneApi 的镜像:

代码语言:bash
复制
docker run --name one-api -d --restart always -p 3000:3000 -e TZ=Asia/Shanghai -v /dockerData/one-api:/data justsong/one-api

解释一下特殊参数:

  • -p 3000:3000 - 端口映射,将主机的 3000 端口映射到容器内的 3000 端口
    • 格式为 主机端口:容器端口
  • -e TZ=Asia/Shanghai - 设置环境变量
    • TZ 是时区设置
    • Asia/Shanghai 表示使用上海时区
  • -v /dockerData/one-api:/data - 数据卷挂载
    • 将主机的 /dockerData/one-api 目录挂载到容器内的 /data 目录

需要注意,和官方的有点不同。因为我习惯把 Docker 持久化的文件,放到 /dockerData 目录下。其他部署方法,你可以查看官方文档,并根据自己的喜好进行修改。

Docker 拉取 OneApi
Docker 拉取 OneApi

Nginx 反向代理

OneApi 默认端口是 3000,我们可以通过 Nginx 反向代理,将 3000 端口映射到 80 端口或者 443,这样,参考 Nginx 的配置:

代码语言:nginx
复制
server{
   server_name openai.justsong.cn;  # 请根据实际情况修改你的域名

   location / {
          client_max_body_size  64m;
          proxy_http_version 1.1;
          proxy_pass http://localhost:3000;  # 请根据实际情况修改你的端口
          proxy_set_header Host $host;
          proxy_set_header X-Forwarded-For $remote_addr;
          proxy_cache_bypass $http_upgrade;
          proxy_set_header Accept-Encoding gzip;
          proxy_read_timeout 300s;  # GPT-4 需要较长的超时时间,请自行调整
   }
}
Nginx 反向代理
Nginx 反向代理

最后,重启 Nginx 服务,使用浏览器访问:

OneApi 访问
OneApi 访问

获取 API Key

举个例子,我这里有一个腾讯云高性能应用服务器部署的 DeepSeek 70B 蒸馏版本模型:

DeepSeek 70B 蒸馏版本模型
DeepSeek 70B 蒸馏版本模型

它的底层同样是 Ollama 拉取的,只不过默认端口不是 11434

DeepSeek 70B 蒸馏版本模型底层
DeepSeek 70B 蒸馏版本模型底层

这个时候,我们可以在防火墙内,仅允许你部署 OneApi 的服务器访问 DeepSeek 70B 蒸馏版本模型:

防火墙配置
防火墙配置

之后,我们在 OneApi 的控制台,先添加渠道:

添加渠道
添加渠道

需要注意,在代理添加的,就是我们 Ollama 的 IP + 端口,比如http://199.999.999.9999:6399

之后,测试一下:

测试是否连通
测试是否连通

最后,我们在令牌添加一个令牌,就可以获得我们的 API Key 了:

添加令牌
添加令牌

调用 API 效果

最后,我们获得的 API Key,可能是这样的: sk-Qz8hTDDIjd9TP5LO55E7D687B81a488cA12b95D148909c00

看着是不是很熟悉?

思考,很熟悉?
思考,很熟悉?

没错,和 OpenAI 是一样的,调用方法也是一样的。

如果你的 OneApi 的域名是:https://example.com,那么调用的地址是: https://example.com/api/v1

用 Python 调用:

代码语言:python
代码运行次数:0
运行
复制
from openai import OpenAI


def chat(ask_message, model_api_key, model_name="deepseek-chat"):
    """
    调用 API 的接口,提问 AI
    :param model_name:
    :param ask_message:
    :param model_api_key:
    :return:
    """
    client = OpenAI(api_key=model_api_key, base_url="https://example.com/v1")
    chat_resp = client.chat.completions.create(
        model=model_name,
        messages=[
            {"role": "system", "content": "你是一个非常棒的助手,帮用户回答问题"},
            {"role": "user", "content": ask_message},
        ],
        stream=False
    )
    return chat_resp.choices[0].message.content


if __name__ == '__main__':
    api_key = "sk-Qz8hTDDIjd9TP5LO55E7D687B81a488cA12b95D148909c00"
    message = "你好"
    print(chat(message, api_key, "deepseek-r1:1.5b"))
Python 调用
Python 调用

END

OneApi 的部署,到这里就结束了。如果你想了解更多,可以参考官方文档:https://github.com/justsong/one-api

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • OneApi
  • 部署思路
  • 部署 OneApi
    • 部署 Docker
    • 拉取镜像
    • Nginx 反向代理
  • 获取 API Key
  • 调用 API 效果
  • END
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档