昨天凌晨,OpenAI以全资收购io的消息成为热点焦点。同时,OpenAI还发布了另一项重要更新——智能体开发的核心API(Responses API)现已支持MCP功能。
传统上,开发智能体时,需要通过函数调用与外部服务进行交互,每次操作都需经过大模型、后端及外部服务之间多次网络传输,这不仅增加了延迟,也令系统扩展和管理更加复杂。
而现在,借助Responses API的MCP支持,开发者无需为每个函数调用单独配置对应服务,只需将模型设定为连接一个或多个MCP服务即可,大大简化了开发过程,提高了效率。
自从OpenAI推出Responses API以来,已有数十万开发者利用该接口处理了数万亿的token数据,构建了多样的智能体应用,比如Zencoder的编码助手、Revi服务于私募股权与投资银行的市场智能体,以及MagicSchool AI的教育专用智能体。
为了让智能体开发更加便捷,Responses API现支持MCP服务,开发者仅需几行代码即可将智能体快速接入强大的外部工具和服务。举例来说,连接至电商平台Shopify的智能体只需不到十行代码即可实现。
以往,开发者需要编写定制的接口包装函数,比如cart_add或create_payment_link,并且搭建和维护自己的中继服务器,流程复杂且耗时。而现在,这一过程被极大简化,只需通过简单配置即可完成对接。
仅用13行代码就能实现智能体与云通信平台Twilio的连接。相比之前需要在后端分别集成两个工具并手动处理短信负载,这大大简化了开发流程。
引入MCP功能后,还带来了集中化管理工具的优势,使智能体能够更高效地调用外部服务。通过设置allowed_tools参数,开发者可以明确限定智能体可使用的工具范围,有效防止无关工具的调用,减少上下文信息过载,并提升响应速度。
在处理用户查询时,智能体可以依据预设规则,选择最合适的工具进行调用,避免盲目尝试所有可用选项。
借助MCP,可以实施精细的权限管理来保障智能体调用的安全性。比如,限制智能体只能访问特定工具,或在调用前需经过明确授权,从而防止滥用并保护外部服务的安全。通过每次调用传递授权密钥和服务器地址,MCP确保身份验证和权限控制的安全,同时避免敏感信息暴露在响应数据中。
此外,MCP支持动态导入和缓存工具列表。智能体首次连接MCP服务器时,会加载工具清单并缓存到模型上下文,后续调用可直接利用缓存,减少等待时间并提升响应效率。
除了以上优势,MCP还拥有更多实用功能。
Responses API也带来其他重要更新:
此外,OpenAI还为Responses API新增了后台模式功能。该模式适用于处理耗时较长的任务,允许开发者异步启动操作,避免因超时或连接中断而影响流程。开发者可以通过轮询来查询任务状态,或者在合适时机开启事件的流式传输。
推理摘要功能允许Responses API将模型的内部推理过程转化为简明且自然的语言。这有助于开发者更便捷地进行调试和审查,同时优化最终用户的使用体验。
加密推理项功能支持满足零数据保留(ZDR)要求的客户,在不同的API请求中重复利用推理项,无需在OpenAI服务器上保存任何数据。这样不仅增强了系统的智能性,还能有效降低令牌消耗,从而减少费用和响应时间。
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有