腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
为
TensorFlow
Serving
REST
API
生成
实例
或
输入
、
、
我已经准备好尝试基于已保存模型的JSON
REST
API
,并且想知道是否有一种简单的方法来
生成
我需要与request一起发送的
TensorFlow
实例
(基于行)
或
输入
(列)。我的模型中有几千个特性,我不喜欢手动
输入
JSON。有没有一种方法可以使用现有的数据来
生成
序列化的数据,并将其抛到predict
API
中?
浏览 25
提问于2019-04-11
得票数 4
2
回答
如何通过标准的
tensorflow
服务码头形象来服务多种版本的模型?
、
、
我是新来的
Tensorflow
服务生但是,当我尝试使用多个版本时,它只提供最新版本。 有可能这样做吗?还是我需要尝试一些不同的东西?
浏览 2
提问于2018-09-27
得票数 3
回答已采纳
2
回答
如何在外部非
Tensorflow
环境中测试经过训练的CNN模型?
、
、
、
、
我已经
为
我的自定义对象检测训练了一个预先训练的
Tensorflow
模型,并且我已经导出了推理图文件和检查点文件。现在我希望其他人也测试我训练过的模型,给它提供一些新的图像,并查看结果。但是,如果外部“计算器”没有任何
Tensorflow
环境,并且他们也不想设置它,那么最好的方法是什么呢?我使用: Miniconda3,
Tensorflow
v1.10.0 (图形处理器),Tensorboard v1.10.0,Cudatoolkit8.0,TF预训练模型“固态硬盘与移动网络v1”。我找到并阅读的所有手册都只指导您从
浏览 12
提问于2019-01-19
得票数 0
1
回答
Serving
TensorFlow
预建线性分类器估计器模型
、
、
、
我正在尝试使用我们自己的CSV数据集运行一个经过训练的教程模型,使用
TensorFlow
Serving
,每行由4个INT值(最后一个是标签)组成: 'thirdInt': tf.FixedLenFeature([1], tf.int64)} def
serving
_input_receiver_fn\\SaveLC\\save_dir',
浏览 0
提问于2019-07-10
得票数 1
3
回答
std::bad_alloc的流量服务失败
、
、
我试图使用docker组合(服务模型+微服务)运行
tensorflow
服务,但是
tensorflow
服务容器失败,错误出现在下面,然后重新启动。.
tensorflow
-
serving
| what(): std::bad_alloc
tensorflow
-
se
浏览 15
提问于2022-09-12
得票数 0
1
回答
对等设备已重置tf_
serving
grpc客户端连接
、
、
服务命令:docker容器输出: 2019-08-12 13:59:29.851181: i
tensorflow
_
serving
/core/loader_harness.cc:86]已成功加载servable versi
浏览 3
提问于2019-08-12
得票数 0
1
回答
在哪里可以找到
tensorflow
服务URL?
、
、
、
、
我
为
tensorflow
-
serving
创建了一个
tensorflow
-
serving
,如下所示:# server URL url = 'http://localhost:8501/v1/models/model
浏览 3
提问于2021-09-30
得票数 3
回答已采纳
1
回答
如何在
tensorflow
_model_server上查询
REST
?
、
、
/
serving
/classify$ apt-get install
tensorflow
-model-server$
tensorflow
_model_server --port=9000 --
rest
_
api
_port=9001 --model_base_path=/home/deploy/export ...2019-0
浏览 0
提问于2019-02-22
得票数 1
回答已采纳
1
回答
如何在Java中使用
TensorFlow
LinearClassifier
、
在Python语言中,我训练了一个
TensorFlow
LinearClassifier,并将其保存为:model.fit(input_fn=train_input_fn, steps=100)通过使用Java,我能够使用以下命令在
TensorFlow
中加载此模型: model =
浏览 3
提问于2017-05-08
得票数 1
2
回答
记录由
tensorflow
服务模型服务的请求
、
、
、
、
我已经使用tesnorflow服务构建了一个模型,并使用以下命令在服务器上运行它:- bazel-bin/
tensorflow
_
serving
/model_servers/
tensorflow
_model_server--port=9009 --model_name=ETA_DNN_Regressor --model_base_path=//apps/node-apps/
tensorflow
-models-repository
浏览 3
提问于2017-09-22
得票数 11
2
回答
tensorflow
_
serving
分类、预测和回归SignatureDefs有什么不同
我试图在
tensorflow
服务中提供
tensorflow
对象检测应用编程接口模型,但我被3个不同的SignatureDefs搞糊涂了。有什么不同,什么时候选择一个而不是另一个?
浏览 8
提问于2017-07-26
得票数 2
回答已采纳
3
回答
向项目添加权限
、
我正试着遵循本教程$ gcloud container clusters create inception-
serving
-cluster --num-nodes 5 ERROR: (gcloud.container.clusters.create) ResponseError: code=403, message=Required "container.clusters.create" permission for "projects/
tensorflow
-
serving
如何使用C
浏览 10
提问于2016-07-03
得票数 4
回答已采纳
5
回答
不提供基本路径下可服务<MODEL>版本的
Tensorflow
、
、
、
我遵循教程使用对象检测模型使用
tensorflow
serving
。我使用来
生成
模型。我使用导出程序创建了一个冻结模型(
生成
的冻结模型works使用python脚本)。冻结的图形目录有以下内容( variables目录中没有) saved_model.pb
tensorflow
_model_server --port=9000 --model_name=ssd --model_base_path=/
浏览 13
提问于2017-08-07
得票数 41
回答已采纳
1
回答
gRPC服务器响应操作系统错误,grpc_status: 14
、
、
、
、
通过使用
Tensorflow
服务示例中的基本gRPC客户端从运行在docker上的模型中获得预测,我得到了以下响应:这就是我的客户目前的样子:import
tensorflow
as tf from
tensorf
浏览 8
提问于2020-02-03
得票数 2
1
回答
tensorflow
在预测时返回NaN
、
我已经训练了一个GAN模型,并通过以下函数保存了
生成
器: tf.keras.models.save_model( filepath=os.path.join我通过以下方式
为
模型提供服务: zhaocc:~/products/
tensorflow
_server$ sudo docker run -t --rm -p 8502:8501 -v "/tmp/
serving
&zha
浏览 98
提问于2020-06-18
得票数 0
2
回答
如何将"model_config_file“变量指定为
tensorflow
-服务于码头组合?
、
、
、
我能够使用以下docker run ...命令正确运行
tensorflow
服务的码头容器:
tensorflow
/
serving
\version: '3.3' server: image:
tensorflow<
浏览 5
提问于2020-02-25
得票数 8
1
回答
TensorFlow
服务频繁的请求超时
、
、
Serving
配置
为
加载和服务7个机型,并且随着机型数量的增加,服务请求超时的频率更高。相反,随着模型请求数量的减少,超时并不重要。在客户端,超时配置
为
5秒。有趣的是,批处理的最大持续时间约为700ms,配置的最大批处理大小
为
10。平均批处理持续时间约为60ms。我们已经检查了
TensorFlow
服务日志,但没有发现警告
或
错误。时间解 减少加载和服务模型的数量,但不是预期的解决方案,因为这需要设置多个不同的GPU
实例
,每个
实例
只加载和服务
浏览 37
提问于2018-09-03
得票数 5
1
回答
tensorflow
_model服务器在colab中不工作
、
、
在运行教程时,我运行 --
rest
_
api
_port=8501 \ --model_base_path="/content/drive/MyDrive/app/model1/export/latest_model/"2021-08-06 14:08:56.175079:
浏览 1
提问于2021-08-06
得票数 0
2
回答
无法在后台从dockerfile运行linux命令?
、
、
/
tensorflow
-
serving
-apt stable
tensorflow
-model-server
tensorflow
-model-server-universal" | tee /etc/apt/sources.list.d/
tensorflow
-
serving
.list && \ curl https://storage.googleapis.com/
浏览 8
提问于2021-12-14
得票数 0
回答已采纳
1
回答
SageMaker批处理转换未正确加载CSV
、
当我打印
输入
有效载荷时,它看起来像这样的编辑:所有三个句子都是一次打印的。我还试着在印表符上打印和
或
返回上面的对象,希望指向印表符的对象能返回一个句子。但是它只是返回一个字符,它似乎用三个句子来确认上面的对象,它被看作是一个字符串而不是三个字符串。
浏览 13
提问于2022-10-27
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券