TensorFlow Serving是一个用于部署机器学习模型的开源系统,可以提供高性能、可扩展和可靠的模型服务。mnist_export是TensorFlow Serving的一个示例,用于将训练好的MNIST模型导出为TensorFlow Serving可用的格式。下面是在不使用bazel的情况下执行mnist_export的步骤:
tensorflow_serving/example/mnist_export
目录。mnist_export.py
文件,并根据自己的模型路径和版本号修改EXPORT_PATH
和MODEL_VERSION
变量。例如:EXPORT_PATH = '/path/to/your/model'
MODEL_VERSION = 1<MODEL_NAME>/<MODEL_VERSION>
。例如,如果EXPORT_PATH
为/path/to/your/model
,MODEL_VERSION
为1,则导出的模型路径为/path/to/your/model/1
。<MODEL_NAME>
为模型的名称,/path/to/your/model
为导出的模型路径。至此,你已经成功地在不使用bazel的情况下执行了TensorFlow Serving的mnist_export示例。可以通过向TensorFlow Serving提供的REST API发送请求来进行模型推断。
没有搜到相关的沙龙
领取专属 10元无门槛券
手把手带您无忧上云