首页
学习
活动
专区
圈层
工具
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
首页
学习
活动
专区
圈层
工具
MCP广场
MCP广场 >详情页
mcp-server-openai2025-05-272分享
github
使用 MCP 协议直接从 Claude 查询 OpenAI 模型。此分支添加了对 o3-mini 和 gpt-4o-mini 模型的支持,并改进了消息处理。
By thadius83
2025-05-272
github
详情内容

OpenAI MCP 服务器

smithery badge

使用 MCP 协议直接从 Claude 查询 OpenAI 模型。此分支添加了对 o3-mini 和 gpt-4o-mini 模型的支持,并改进了消息处理。

命令行自动安装

从 https://github.com/thadius83/mcp-server-openai 设置 MCP 服务器。

在 cline_mcp_settings.json 中使用 "github.com/thadius83/mcp-server-openai" 作为服务器名称。

分析下面的自述文件和说明。不要在仓库中创建新文件,利用 pyproject.toml、src/mcp_server_openai/server.py、src/mcp_server_openai/llm.py 中的发现。

安装完成后,使用其中一个工具演示服务器的功能。

安装步骤:

# 克隆仓库
git clone https://github.com/thadius83/mcp-server-openai
cd mcp-server-openai

# 安装包
pip install .

MCP 设置配置:cline_mcp_settings.json 应配置为:

正确的服务器名称格式:"github.com/thadius83/mcp-server-openai"
服务器的 Python 模块路径结构
指向项目目录的 PYTHONPATH 环境变量
作为命令行参数传递的 OpenAI API 密钥

示例配置:
{
  "mcpServers": {
    "github.com/thadius83/mcp-server-openai": {
      "command": "python",
      "args": [
        "-m",
        "src.mcp_server_openai.server",
        "--openai-api-key",
        "your-openai-api-key"
      ],
      "env": {
        "PYTHONPATH": "/path/to/mcp-server-openai"
      },
      "disabled": false,
      "autoApprove": []
    }
  }
}
需求:

Python >= 3.10
OpenAI API 密钥
通过 pip 安装的依赖项 (mcp>=0.9.1, openai>=1.0.0, click>=8.0.0, pytest-asyncio)

可用工具:

工具名称:ask-openai
描述:向 OpenAI 助手模型直接提问
可用模型:
o3-mini (默认)
gpt-4o-mini
输入模式:
{
  "query": "Your question here",
  "model": "o3-mini" // 可选,默认为 o3-mini
}

特性

  • 直接集成 OpenAI API
  • 支持多种模型:
    • o3-mini (默认): 优化为简洁的回复
    • gpt-4o-mini: 增强型模型,提供更详细的回复
  • 可配置的消息格式
  • 错误处理和日志记录
  • 通过 MCP 协议提供简单的接口

安装

通过 Smithery 安装

要通过 Smithery 自动安装 OpenAI MCP 服务器用于 Claude 桌面端:

npx -y @smithery/cli install @thadius83/mcp-server-openai --client claude

手动安装

  1. 克隆仓库:
git clone https://github.com/thadius83/mcp-server-openai.git
cd mcp-server-openai

# 安装依赖
pip install -e .
  1. 配置 Claude 桌面端:

将此服务器添加到您现有的 MCP 设置配置中。注意:保留配置中任何现有的 MCP 服务器 - 只需在此基础上添加这个服务器即可。

位置:

  • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
  • Windows: %APPDATA%/Claude/claude_desktop_config.json
  • Linux: 检查您的主目录 (~/) 以查找默认的 MCP 设置位置
{
  "mcpServers": {
    // ... 保留您现有的 MCP 服务器 ...
    
    "github.com/thadius83/mcp-server-openai": {
      "command": "python",
      "args": ["-m", "src.mcp_server_openai.server", "--openai-api-key", "your-key-here"],
      "env": {
        "PYTHONPATH": "/path/to/your/mcp-server-openai"
      }
    }
  }
}
  1. 获取OpenAI API密钥:

    • 访问OpenAI官网
    • 创建账户或登录
    • 进入API设置
    • 生成新的API密钥
    • 将密钥添加到你的配置文件中,如上所示
  2. 重启Claude:

    • 更新配置后,重启Claude以使更改生效

使用方法

服务器提供一个名为ask-openai的工具,可用于查询OpenAI模型。你可以在Claude中使用use_mcp_tool命令直接使用它:

<use_mcp_tool>
<server_name>github.com/thadius83/mcp-server-openai</server_name>
<tool_name>ask-openai</tool_name>
<arguments>
{
  "query": "Python的asyncio库的关键特性是什么?",
  "model": "o3-mini"  // 可选,默认为o3-mini
}
</arguments>
</use_mcp_tool>

模型对比

  1. o3-mini (默认)

    • 最适合:快速、简洁的答案
    • 风格:直接且高效
    • 示例回复:
      Python的asyncio提供了非阻塞的、协作式多任务处理。关键特性:
      1. 事件循环 – 调度和运行异步任务
      2. 协程 – 你可以暂停和恢复的函数
      3. 任务 – 并发运行协程
      4. 期物 – 代表未来的结果
      5. 非阻塞I/O – 高效处理I/O操作
      
  2. gpt-4o-mini

    • 最适合:更全面的解释
    • 风格:详细且彻底
    • 示例回复:
      Python的asyncio库提供了一个全面的异步编程框架。
      它包括一个用于管理任务的事件循环、用于编写非阻塞代码的协程、
      用于并发执行的任务、用于处理未来结果的期物以及高效的I/O
      操作。该库还提供同步原语和用于网络编程的高级API。
      

响应格式

工具返回标准化格式的响应:

{
  "content": [
    {
      "type": "text",
      "text": "模型的响应..."
    }
  ]
}

故障排除

  1. 服务器未找到:

    • 验证你的配置中 PYTHONPATH 是否指向正确的目录
    • 确保 Python 和 pip 已正确安装
    • 尝试直接运行 python -m src.mcp_server_openai.server --openai-api-key your-key-here 来检查错误
  2. 身份验证错误:

    • 检查你的 OpenAI API 密钥是否有效
    • 确保密钥已正确传递到 args 数组中
    • 验证密钥中没有多余的空格或字符
  3. 模型错误:

    • 确认你正在使用支持的模型 (o3-mini 或 gpt-4o-mini)
    • 检查你的查询是否为空
    • 确保你没有超过 token 限制

开发

# 安装开发依赖
pip install -e ".[dev]"

# 运行测试
pytest -v test_openai.py -s

与原版差异

  • 新增对 o3-mini 和 gpt-4o-mini 模型的支持
  • 提升了消息格式
  • 为了更好的兼容性,移除了 temperature 参数
  • 使用详细的使用示例更新了文档
  • 新增了模型比较和响应示例
  • 增强了安装说明
  • 新增了故障排除指南

许可证

MIT 许可证

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档