在tf_serving中添加多个模型而不卸载以前的模型,可以通过以下步骤实现:
model_config_list: {
config: {
name: 'model1',
base_path: '/path/to/model1',
model_platform: 'tensorflow'
},
config: {
name: 'model2',
base_path: '/path/to/model2',
model_platform: 'tensorflow'
},
...
}
在上述示例中,name
是模型的名称,base_path
是模型文件夹的路径,model_platform
是模型的平台(例如,tensorflow)。
tensorflow_model_server --port=8500 --rest_api_port=8501 --model_config_file=/path/to/model_config_file
在上述命令中,--port
指定模型服务器的端口号,--rest_api_port
指定REST API的端口号,--model_config_file
指定配置文件的路径。
通过以上步骤,你可以在tf_serving中同时添加多个模型,并且不会卸载以前的模型。每个模型都可以通过指定的名称和端口号来访问。
企业创新在线学堂
serverless days
DB TALK 技术分享会
云+社区技术沙龙 [第30期]
GAME-TECH
技术创作101训练营
领取专属 10元无门槛券
手把手带您无忧上云