首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >【Paddle系列】Paddle serving部署自己的模型

【Paddle系列】Paddle serving部署自己的模型

作者头像
ddAshley
发布2025-12-15 11:29:06
发布2025-12-15 11:29:06
1370
举报
概述
PaddleServing是飞桨官方推荐的服务化部署框架,围绕AI落地的最后一公里提供专业、可靠、易用的在线模型服务框架。训练完我们的模型之后,我们还想将模型做成服务化接口供外部调用,利用paddleserving即可部署PaddleOCR服务。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1 前言
  • 2 关于PaddleServing
  • 3 环境准备
    • 3.1 使用docker部署Serving开发镜像
      • 3.1.1 拉取docker镜像
      • 3.1.2 依赖库安装
    • 3.2 虚拟环境搭建
      • 3.2.1 新建并激活虚拟环境
      • 3.2.2 依赖库安装
    • 3.3 环境检查
  • 4 模型开发
    • 4.1 ocr模型训练
    • 4.2 转换Serving
  • 5 服务启动
    • 5.1 RPC服务
      • 5.1.1开启服务端
      • 5.1.2客户端请求
    • 5.2 Web服务
      • 5.2.1开启服务端
      • 5.2.2客户端请求
  • 6 Pipeline框架
    • 6.1 框架设计
      • 6.1.1 网络服务层
      • 6.1.2 图执行引擎
      • 6.1.3 服务日志
      • 6.1.4 自定义信息
        • 6.1.4.1 自定义Web服务URL
        • 6.1.4.2 自定义服务输入和输出结构
        • 6.1.4.3 自定义服务并发和模型配置
        • 6.1.4.4 自定义推理过程
        • 6.1.4.5 自定义业务错误类型
    • 6.2 服务启动与推理
      • 6.2.1 启动两个Serving服务
      • 6.2.2 Pipeline自定义模型op实现本地与远程推理
  • 7 部署示例
  • 8 常见问题
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档