这是一个模型上下文协议(MCP)服务器,通过Higress的ai-search功能,提供AI搜索工具,利用来自各种搜索引擎的实时搜索结果来增强AI模型的响应能力。
https://github.com/user-attachments/assets/60a06d99-a46c-40fc-b156-793e395542bb
https://github.com/user-attachments/assets/5c9e639f-c21c-4738-ad71-1a88cc0bcb46
该服务器可以通过环境变量进行配置:
HIGRESS_URL
(可选):Higress服务的URL(默认:http://localhost:8080/v1/chat/completions
)MODEL
(必需):用于生成响应的LLM模型INTERNAL_KNOWLEDGE_BASES
(可选):内部知识库的描述使用uvx会自动从PyPI安装包,无需在本地克隆仓库。
{
"mcpServers": {
"higress-ai-search-mcp-server": {
"command": "uvx",
"args": [
"higress-ai-search-mcp-server"
],
"env": {
"HIGRESS_URL": "http://localhost:8080/v1/chat/completions",
"MODEL": "qwen-turbo",
"INTERNAL_KNOWLEDGE_BASES": "员工手册,公司政策,内部流程文档"
}
}
}
}

使用uv需要在本地克隆仓库,并指定源代码路径。
{
"mcpServers": {
"higress-ai-search-mcp-server": {
"command": "uv",
"args": [
"--directory",
"path/to/src/higress-ai-search-mcp-server",
"run",
"higress-ai-search-mcp-server"
],
"env": {
"HIGRESS_URL": "http://localhost:8080/v1/chat/completions",
"MODEL": "qwen-turbo",
"INTERNAL_KNOWLEDGE_BASES": "员工手册,公司政策,内部流程文档"
}
}
}
}

本项目采用MIT许可证 - 详情请参阅LICENSE文件。