适用于:机器学习服务器
在机器学习服务器中,Web 服务是在操作化计算节点上执行的 R 或 Python 代码。
数据科学家可以将 R 和 Python 代码和模型作为 Web 服务部署到机器学习服务器中,让其他用户有机会使用他们的代码和预测模型。一旦托管在那里,这些 Web 服务就会公开并可供使用。
Web 服务可以直接在 R 或 Python 中使用,也可以使用REST API以编程方式使用,或者通过Swagger 生成的客户端库使用。它们可以同步、实时或批处理模式使用。它们也可以从一个平台部署并在另一个平台上使用。
Web 服务促进了它们所包含的可操作模型和代码的使用和集成。一旦你建立了一个预测模型,在很多情况下,下一步就是将模型付诸实施。那就是根据需要从预先训练的模型中生成预测。在这种情况下,新数据通常一次可用一行,延迟成为关键指标。尽快以单个预测(或分数)做出响应非常重要。
每个 Web 服务都由其名称和版本唯一定义。可以使用mrsdeploy R 包或azureml-model-management-sdk Python 包中的函数从 R 或 Python 脚本访问服务的生命周期。
要求!在部署和使用 Web 服务之前,您必须有权访问配置为托管 Web 服务的机器学习服务器实例。
有两种类型的 Web 服务:标准的和实时的。标准网络服务
这些 Web 服务提供任意 Python 或 R 代码和模型的快速执行和评分。它们可以包含代码、模型和模型资产。他们还可以获取特定输入并为将服务集成到其应用程序中的用户提供特定输出。
与所有 Web 服务一样,标准 Web 服务由它们的名称和版本标识。此外,它们还可以由任何 Python 或 R 代码、模型和任何必要的模型资产定义。在部署标准 Web 服务时,您还应该定义应用程序开发人员用来将服务集成到他们的应用程序中所需的输入和任何输出。
实时 Web 服务不支持任意代码,仅接受使用产品安装包中支持的功能创建的模型。有关按语言和包列出的受支持函数列表,请参阅以下部分。
实时 Web 服务提供更低的延迟,可以更快地产生结果并同时对更多模型进行评分。改进的性能提升来自这样一个事实,即这些 Web 服务在使用时不依赖于解释器,即使这些服务使用模型创建的对象。因此,为每个呼叫启动会话所花费的额外资源和时间更少。此外,模型仅在计算节点中加载一次,并且可以多次评分。
对于实时服务,您无需指定:
本文系转载,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文系转载,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。