MCP 是当下 AI 领域最为火爆的热点话题之一,EdgeOne 始终以前沿技术为核心驱动力,致力于将尖端技术转化为好用、易用的用户服务方案,今天向大家推出 @edgeone-pages-mcp-server 🎉
MCP (Model Context Protocol) 是一个开放协议,它对应用程序向大语言模型(LLM)提供上下文的方式进行了标准化。可以把 MCP 想象成人工智能应用程序的 USB-C 接口。就像 USB-C 接口为将设备连接到各种外围设备和配件提供了一种标准化的方式一样,MCP 也为将人工智能模型连接到不同的数据源和工具提供了一种标准化的方式。(MCP Server 则是通过标准化的 MCP 协议提供具体的功能和服务)
EdgeOne Pages MCP Server 是一个用于将 HTML 内容部署到 Pages 并获取公开访问 URL 的 MCP 服务。简单来说:使用了 Pages MCP Server 后,咱们只要在代码编辑器里用“人话”跟大模型说:“帮我生成一个 xxxx 的页面并帮我直接部署”,大模型就可以一键生成并部署啦!
🌟全程不需要离开编辑器,也不需要在 Pages 的控制台进行操作,在编辑器跟 AI 的对话框里用一句话即可快速生成 HTML 并部署。无论是您是编程新手还是经验丰富的开发者,整个过程都将变得极度的简单和高效。
以下是基于 Cursor 编辑器使用 Pages MCP Server 的演示:
接下来以上面演示的 Cursor 为例,向大家介绍如何将 Pages MCP Server 集成到编辑器里面。
首先,在设置界面切到“MCP”,添加新的 MCP Server,填入如下配置:
Name:edgeone-pages-mcp-server
Type:command
Command:npx edgeone-pages-mcp
在任何支持 MCP 的 AI 客户端中,您也可以使用以下 JSON 配置:
{
"mcpServers": {
"edgeone-pages-mcp-server": {
"command": "npx",
"args": ["edgeone-pages-mcp"]
}
}
配置完后,在对话框输入您的需求,同时遵循类似的格式(帮我生成一个 xxxx 的页面并帮我直接部署),即可快速生成并部署。
Pages MCP Server 利用无服务器边缘计算能力和 KV 存储,通过 API 接收 HTML 内容,即可自动生成即时生效的公共访问链接,实现秒级静态页面部署并内置错误处理机制。
您可以参考我们的地理位置 MCP 示例项目,构建自己的服务:MCP with Pages Functions: Geo Location Demo
简单来说,MCP 允许 AI 在对话过程中调用外部服务。例如,当 AI 需要获取用户地理位置时,可以通过 get_geo 接口自动获取这些信息,然后推荐附近的餐厅或景点。
在支持 MCP 的客户端中,您可以添加如下 JSON 配置:
{
"mcpServers": {
"edgeone-geo-mcp-server": {
"command": "tsx",
"args": ["path/to/mcp-server/index.ts"]
}
}
}
到目前为止,MCP Server 主要在本地机器上运行,依赖特定运行时环境(如 Node.js、Python 或 Docker),限制了可落地的应用场景,导致受众面较为狭窄。但随着业界对远程 MCP Server 协议的支持,使其能够摆脱环境限制,变得更加通用,为更广泛的大模型用户群体打开了大门。 目前 MCP 社区正在推动远程 Server 重要技术升级(GitHub issue #206),未来将迎来更丰富的使用场景和更便捷的用户体验。
MCP 技术趋势与 Pages Functions 的边缘无服务器架构高度契合,其在性能、可扩展性和易用性上的优势,使开发者无需管理基础设施即可享受全球边缘网络的便利。我们将持续跟进业界动态,结合社区技术演进方向,通过标准化协议支持进一步拓展开发场景应用边界,不断增强 MCP 相关能力,助力开发者提升效能与开发体验。
更多信息,请参阅 EdgeOne Pages 官方文档。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。