ddAshley
【Paddle系列】Paddle serving部署自己的模型
原创
关注作者
腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
ddAshley
社区首页
>
专栏
>
【Paddle系列】Paddle serving部署自己的模型
【Paddle系列】Paddle serving部署自己的模型
ddAshley
关注
发布于 2025-12-15 11:29:06
发布于 2025-12-15 11:29:06
137
0
举报
概述
PaddleServing是飞桨官方推荐的服务化部署框架,围绕AI落地的最后一公里提供专业、可靠、易用的在线模型服务框架。训练完我们的模型之后,我们还想将模型做成服务化接口供外部调用,利用paddleserving即可部署PaddleOCR服务。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
ocr
百度飞桨
tensorflow-serving
文字识别
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
ocr
百度飞桨
tensorflow-serving
文字识别
#paddle
#serving
评论
登录
后参与评论
0 条评论
热度
最新
推荐阅读
目录
1 前言
2 关于PaddleServing
3 环境准备
3.1 使用docker部署Serving开发镜像
3.1.1 拉取docker镜像
3.1.2 依赖库安装
3.2 虚拟环境搭建
3.2.1 新建并激活虚拟环境
3.2.2 依赖库安装
3.3 环境检查
4 模型开发
4.1 ocr模型训练
4.2 转换Serving
5 服务启动
5.1 RPC服务
5.1.1开启服务端
5.1.2客户端请求
5.2 Web服务
5.2.1开启服务端
5.2.2客户端请求
6 Pipeline框架
6.1 框架设计
6.1.1 网络服务层
6.1.2 图执行引擎
6.1.3 服务日志
6.1.4 自定义信息
6.1.4.1 自定义Web服务URL
6.1.4.2 自定义服务输入和输出结构
6.1.4.3 自定义服务并发和模型配置
6.1.4.4 自定义推理过程
6.1.4.5 自定义业务错误类型
6.2 服务启动与推理
6.2.1 启动两个Serving服务
6.2.2 Pipeline自定义模型op实现本地与远程推理
7 部署示例
8 常见问题
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档
0
0
0
推荐