00:00
大家好,欢迎收看开箱吧腾讯云AI in奥all in agent特辑,我是腾讯轻量云的产品经理俊伟,今天我要为大家介绍的是轻量云助力开发者零门槛上手m cp server的产品能力。那在开始之前呢?让我们先理解什么是MCPMCP全称模型上下文协议,它为AI大模型与外部工具数据源提供了标准化的交互接口,可以说是AI应用的usbc接口。MCP主要包含三大组件,M cp server MCP client和MCP host. 为什么我们需要MCP?大家知道,大模型本身并不具备调用外部工具的能力,虽然业界之前提出了方身靠的方式,但不同大模型之间的实现各不相同。导致每个工具其实都要为不同大模型来去单独适配,这就像是不同品牌的手机可能在早期需要不同的充电器一样,极大的增加了开发者的负担。那MCP的价值其实就在于此,实现大模型应用领域的书同文、车同轨,提高标准化工具的开发效率,加速AI生态的互联互通以及技术创新。
01:10
那MCP落地的关键组件就是MCP server, 简单来讲呢,它就是大模型可以调用外部工具的一个载体。目前MCP server的部署方式一般分为两种,云端部署和本地部署。云端部署的模式继承了云基础设施与应用集成的优势,在免去手动配置环境的同时,支持mcb server尝试运行,以及本地电脑、移动端、AI客户端等多端实时调用。本地部署模式呢同样也有它的优势,比如可以部署一些专用于本地的服务,比如浏览器、自动化工具。另外,部署在本地的MCP server也可以直接调用本地的资源或者数据。腾讯轻量云面向云端部署MCP server的需求场景,推出了全方位的解决方案,让每位开发者都能够轻松上手MCP server.
02:00
首先就是MC server一键部署与托管的能力。Lighthouse提供的m cb server应用模板预先封装并配置了m cb server运行的必须环境,开发者无需手动配置即可上手。环境创建完成之后呢,我们也提供了部署社区热门的MCP server的能力,或是开发者自定义的MCP server也可以进行部署。同时呢,我们也支持本地电脑、移动端、AI客户端等随时随地的进行访问。与此同时呢,我们也提供了一站式的管理能力,MCPSO2全生命周期一目了然。不过或许在这样一些情景下,开发者会希望开发属于自己的MCPSO2。比如想要为自己过去开发的项目支持MCP,以更好的接入大模型来去使用,又比如,可能开发者想要一个更加满足自己需要的专属的MCP server, 这就不得不涉及m cb server的开发了。不过不用担心,MCP sor上手开发的门槛非常高,为此呢,我们也为大家带来了AI生成MCP server代码的能力,开发者只需要通过自然语言来描述所需要的功能,AI就能全自动生成对应的MCP server代码。
03:10
比如你想创建一个运行Python代码的MP server, 只需要输入生成一个运行Python代码的MCP server, 输入为字符串格式的代码,输出以运行结果字符串来返回系统就能自动完成代码生成了。那其次呢,我们也实现了无缝衔接,一键云端部署刚刚AI生成MCP server的能力。代码生成结束后,你可以直接将其部署到腾讯云的轻量应用服务器实例上,实现7×24小时的运行。部署后,系统会自动暴露公网SSE的入口,支持通过Vs code的ksor Cherry studio等任意客户端来远程调用。铺垫了这么多,纸上得来终觉浅,接下来就请允许我为大家进行演示,来看看如何借助轻量云来创建并部署属于自己的MCP sor. 我们首先进入到腾讯轻量云的控制台,然后在左侧导航栏中的AI的栏目里找到MCP server.
04:08
点击进入页面后,我们能看到屏幕中心有一个输入框,那这里我们就是我们去告诉AI我们想要生成MCPSO或者功能的位置了,那大家如果已经有自己具体的这个功能描述啊,相对如果已经比较确定了,那就可以直接在这里去进行输入,如果可能第一是第一次来到这个页面,我们可以用下方我们提供的一些模板来去。进行测试啊,进行体验。那我们这里首先用中间图标可视化的这个案例来为大家演示如何生成MCP server, 这里我们首先点击发送,看到AI,这个时候其实已经可以帮我们分析需求了。这里他会列举出可能我们想要去实现的一个工具啊,以及对应的功能,包括这个工具对你的输入输出。当然他也会跟我们去确认一些细节,如果我们对它生成结果不是很满意,或者说有自己的想法,当然也可以在它生成结束之后,我们来为他进行补充。
05:08
这里我们看到其实它输入输出的内容相对已经比较完整了啊。并且他下面来去提提问,我们是否需要通过。环境变量来去引入一些额外的配置。他告诉我们,其实目前并不需要啊,这个我们也确实用不到。嗯,他这里总结的内容,我们看起来应该是没有问题的,那我们就告诉他。明确告诉他不需要额外的环境变量。然后直接开始生成代码。这个时候我们能看到他的代码已经开始生成了啊,这里一先首先输出了这个m cp sor, 需要依赖的这个发送MCP,紧接着呢就是这个m cp sor的主体代码了,那我们也能看到左侧的屏幕变成了一个生成中的样式,等到左侧代码生成结束之后,右边的。
06:03
我们也能看到一个相对可视化的方式来去预览刚刚生成的一个工具和环境变量,不过这里因为我们不需要用到额外的环境变量,所以这里的数量是0啊。我们这里的工具就只有一个关键的生成图表的工具了,我们这里也可以看到这个工具对应的一个代码。那接下来呢,可能对应的会有两个操作,一是我们可以将刚刚生成的MCP。部署到轻量应用服务器的一台实例上,然后去进行调用,去进行调试使用。另外一种方式,如果暂时不需要,或者说你想要去细细了解这个代码具体是怎么实现的,那也可以通过右上角的按钮去把这个代码下载一下。那我们现在首先来为大家演示如何将生成的代码部署到轻量应用服务器实例。我们在页面右上角点击部署按钮,然后在弹窗内的选择满足条件的轻量应用服务器实例,然后再次点击部署按钮。我们看看接下来会发生什么。
07:01
啊,这里提示我们已经部署成功了啊,页面里提示呢,接下来我们可以使用kzer或者Cherry studio等客户端来去快速测试刚刚部署的MCP server.那我们现在其实要首先得到这个MCP sor, 它的一个访问地址,我们就来到刚刚部署了这个MCPSO的实例详情页。上面的页签内呢,有一个m cb server管理的页签,我们进入后可以看到刚刚生成的m cb server就已经在这里了。然后它的状态也已经是运行中,并且我们也提供了SSE地址的这个连接,连接地址啊,我们首先点击复制,那接下来呢,我们就进入到Cherry studio, 然后配置好这个m cb server, 紧接着来为大家演示如何去进行调试。那这里我们首先来到Cherry studio的设置页面,我们添加一下刚刚生成的这个MCP server.我们的名称首先给他修改为。
08:00
呃,图标可视化。接下来呢,我们的。这个交互类型选择服务器发送事件,也就是SSE这个URL,就提供我们刚刚在控制台复制的这个地址就可以了。这是我们把。它进行保存,然后将这里的开关打开,这个时候我们看到它的开开启是正常的,那我们点击查看工具啊,这个工具也。正常,有问题,好,我们来到对话的窗口检,首先检查这里的模型配置好没有问题,然后在下方要选择刚刚我们配置的mgp server.这里我们告诉他。请帮我生成一个柱状图。横轴为1~12月。
09:00
纵轴依次为。一到十,十二。然后并且。帮我展示。生成柱状图的。啊,HTML代码。我们接下来看看这个AI会怎么样去使用我们的工具,然后我们稍等片刻,等待AI最终完整的输出,哈,啊,这个时候我们看到他已经输出了,然后并且也已经渲染好了,刚刚我们m cb sor, 它输出的这个HML代码,我们这个时候点击预览。首先可以看到呢,左侧是我们这个MCP server, 它对应将这个柱状图渲染出的一个一个样式,然后右侧呢,是这个代码的一个预览情况。那除此之外呢,我相信刚刚也有小伙伴注意到了,我们这里不光是可以去部署AI生成的MCP server, 同时呢,也可以去添加一些社区热门的MCP server, 或者说你有一些自定义的MCP server, 同样可以部署到轻量应用服务器中来。
10:11
通过腾讯轻量云的MCP server解决方案,我们希望能够降低开发者开发AI应用的门槛,让更多开发者能够参与到AI生态的建设中来。无论是数据库、操作图标可视化,还是各种第三方服务的集成,你都可以通过简单的操作来去快速实现。以上就是我介绍的全部内容了,大家别忘了扫码加入社群和我们交流互动,还有超多福利等你来拿。感谢大家的聆听,期待着看到大家基于腾讯轻量云开发出更多创新的MCP server应用,朋友们再见。
我来说两句