首页
学习
活动
专区
圈层
工具
发布

【工程】深度学习模型部署的那些事儿

那这个TF-Serving是什么样的呢?...先来看看基于TF-Serving后最终整个流程是怎么工作的: 如图,在TF-Serving流程上一般会用到两台机器(或更多),其中一台作为TF-Serving的服务器,专门给模型用来部署并预测...不过TF-Serving一个很大的坑在于:数据预处理的部分需要交给应用服务做,TF-Serving只接收张量输入,如文本分类的模型,它就只接收序列的id,而非句子本身,并且输出返回的是id而非文本化的标签...每个对外服务调用模型需要配置专门的逻辑:从GPU服务器取Embedding,作为输入给TF-Serving,才能得到TF-Serving的输出。...这样,方案四既拥有了方案三速度最快的优点,也避免了TF-Serving需要做输出输出转换,以及在TF-Serving与GPU Embedding服务器中来回跑的缺点。

1.7K10
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到
    领券