这是一个为 Deepseek R1 语言模型实现的模型上下文协议(MCP)服务器。Deepseek R1 是一个强大的语言模型,针对推理任务进行了优化,具有 8192 个令牌的上下文窗口。
为什么选择 Node.js?
这个实现使用了 Node.js/TypeScript,因为它提供了与 MCP 服务器最稳定的集成。Node.js SDK 提供了更好的类型安全性、错误处理以及与 Claude Desktop 的兼容性。
# Clone and install
git clone https://github.com/66julienmartin/MCP-server-Deepseek_R1.git
cd deepseek-r1-mcp
npm install
# Set up environment
cp .env.example .env # Then add your API key
# Build and run
npm run build

默认情况下,此服务器使用 deepseek-R1 模型。如果你想改用 DeepSeek-V3,请在 src/index.ts
中修改模型名称:
// For DeepSeek-R1 (default)
model: "deepseek-reasoner"
// For DeepSeek-V3
model: "deepseek-chat"

deepseek-r1-mcp/ ├── src/ │ ├── index.ts # Main server implementation ├── build/ # Compiled files │ ├── index.js ├── LICENSE ├── README.md ├── package.json ├── package-lock.json └── tsconfig.json
.env
文件:DEEPSEEK_API_KEY=your-api-key-here
{
"mcpServers": {
"deepseek_r1": {
"command": "node",
"args": ["/path/to/deepseek-r1-mcp/build/index.js"],
"env": {
"DEEPSEEK_API_KEY": "your-api-key"
}
}
}
}

npm run dev # Watch mode
npm run build # Build for production

{
"name": "deepseek_r1",
"arguments": {
"prompt": "Your prompt here",
"max_tokens": 8192, // Maximum tokens to generate
"temperature": 0.2 // Controls randomness
}
}

temperature
的默认值是 0.2。
Deepseek 建议根据您的具体使用情况设置 temperature
:
使用场景 | 温度 | 示例 |
---|---|---|
编程 / 数学 | 0.0 | 代码生成,数学计算 |
数据清理 / 数据分析 | 1.0 | 数据处理任务 |
一般对话 | 1.3 | 聊天和对话 |
翻译 | 1.3 | 语言翻译 |
创意写作 / 诗歌 | 1.5 | 故事写作,诗歌生成 |
服务器为常见问题提供详细的错误信息:
欢迎贡献!请随时提交 Pull Request。
MIT