腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
无法
将
AI
模型
部署
到
Kubernetes
、
、
、
、
我是一个相对经验丰富的人工智能实践者,然而,当涉及
到
这些
模型
的
部署
时,我是一个完全的新手。我遵循了一个在线教程,该教程使用Docker Desktop在本地
部署
模型
。它为前端和后端创建了一堆容器。我在每个容器中安装了Tensorflow来运行
AI
模型
(在Dockerfile文件中运行pip3 install tensorflow )。但是,我不能在
Kubernetes
上
部署
它。我质疑了允许
将
Docker堆栈发送到<e
浏览 13
提问于2020-04-26
得票数 0
回答已采纳
1
回答
顶点
模型
注册中心是否需要花费任何费用?
我不知道我是否会被收取使用
模型
注册表在顶点
AI
。要花点钱吗?
浏览 5
提问于2022-10-05
得票数 0
1
回答
模型
不支持Google顶点
AI
- 400 'dedicated_resources‘
、
、
我试图使用Python在Google平台上
部署
一个与顶点
AI
一起训练的文本分类
模型
。projects/{}/locations/{}/models/{}".format(project_id, location, model_id) 注意我用<***>交换了值以隐藏本地工作区变量的位置。
浏览 1
提问于2021-10-14
得票数 0
回答已采纳
1
回答
在顶点
AI
中将多个
模型
部署
到
同一个端点
、
、
我们的用例如下:我们有多个经过自定义培训的
模型
(数百个
模型
,并且随着我们允许应用程序的用户通过UI创建
模型
,然后我们对该
模型
进行动态培训和
部署
),因此
将
每个
模型
部署
到
一个单独的端点是非常昂贵的,因为顶点基于,我们似乎可以将不同类型的
模型
部署
到
同一个端点,但我不确定它将如何工作。假设我有两个不同的经过自定义训练的
模型
,它们使用自定义容器来预测到同一个端点。另外,假设
浏览 5
提问于2021-11-08
得票数 0
回答已采纳
1
回答
基于Azure
Kubernetes
令牌的ML webservice身份验证
、
、
、
我能够使用AML服务
将
ML
模型
部署
到
Azure
Kubernetes
服务中。我在
将
模型
部署
到
AKS时启用了令牌身份验证。docs.microsoft.com/en-us/azure/machine-learning/service/concept-enterprise-security“2路身份验证(密钥和令牌)中所提到的,可以使用
部署
在Azure
Kuber
浏览 12
提问于2019-08-21
得票数 0
1
回答
通过python测试
Kubernetes
中
部署
的容器
、
、
我已经
将
容器推送到容器注册中心,并能够将其
部署
到
kubernetes
。运行此容器以测试
部署
是否正常的最佳方法是什么?我已经阅读了这些文档,并看到我可以设置一个端点,但是,一旦设置了对端点的post请求,我就
无法
知道如何调用容器。注意,容器承载了一个python脚本,它基本上运行一个ml
模型
,并输出一个预测。
浏览 3
提问于2022-02-23
得票数 0
回答已采纳
1
回答
用于推断的google ml自定义代码容器
、
、
我知道,可以在google上
部署
用于培训作业的自定义容器,并且我已经能够使用命令实现相同的运行。gcloud
ai
-platform jobs submit training infer name --region some_region --master-image-uri=path/to/docker/image --config config.yaml 培训工作成功完成,
模型
获得成功,现在我想使用这个
模型
进行推理,但是问题是我的代码有系统级的依赖关系,所以我必须对体系结构做一些修改才能让
浏览 3
提问于2019-10-25
得票数 8
1
回答
谷歌云AutoML
模型
部署
到哪里?
、
、
我希望在一个地方管理我所有的Google Cloud机器学习
模型
(例如
AI
平台/Kubeflow/AutoML)。但是,我不确定在哪里可以找到AutoML,特别是我已经
部署
的AutoML表和
模型
。随着复杂性的增加,我希望能够
将
AutoML
模型
移植
到
AI
平台
模型
以迭代版本。此外,如果我想进行进一步的定制,我还可以将该
模型
引入Kubeflow,以进一步定制、版本化、管理和
部署
。<em
浏览 28
提问于2020-04-08
得票数 0
回答已采纳
1
回答
在snowflake中
部署
经过h2o.
ai
培训的学习者
、
我正在阅读的文章标题建议h2o.
ai
将其ML与snowflake集成在一起。https://www.h2o.
ai
/resources/solution-brief/integration-of-h2o-driverless-
ai
-with-snowflake/ 如果我想导出一个像
浏览 17
提问于2021-07-01
得票数 0
1
回答
将
Azure ML
部署
到
自定义
kubernetes
、
、
、
、
可以使用helm charts
将
Azure ML生成的映像
部署
到
自我管理的
Kubernetes
中吗?我们只想使用图像和
模型
。我看到当它被
部署
到
AKS中的推理集群时,Azure ML设置了某些ENV变量。那么,想要了解是否有人在自定义
kubernetes
集群上手动完成了此设置,以及挑战是什么?原因是要
部署
到
已经由生产团队管理的集群。
浏览 8
提问于2021-06-29
得票数 1
1
回答
使用
kubernetes
服务连接angular前端
到
API
在我的angular前端的env文件中,我
将
API端点设置为localhost:8000,因为我的API侦听该端口,但它在一个单独的pod中。这是否正确,或者我是否打算在
部署
文件中使用我为后端服务指定的名称。其次,我如何连接后端服务是我在下面的
部署
文件中如何做的正确吗? "beta.
kubernetes
.io/os": linux - name:
ai
-api image: test.azu
浏览 2
提问于2019-11-28
得票数 0
2
回答
如何安装OpenJDK库?
、
、
、
、
但是,Azure Machine Learning
无法
从environment.yml文件安装openjdk包,因为找不到模块。 ? 背景故事: 我正在使用H2O.
ai
Python库构建一个机器学习
模型
。不幸的是,H2O.
ai
是用Java编写的,所以它需要Java才能运行。我已经在我本地的Anaconda venv上安装了openjdk,以便在本地运行H2O.
ai
-它运行得很好。但是,我
无法
将此
模型
部署
到
Azure Mach
浏览 109
提问于2021-04-27
得票数 0
回答已采纳
1
回答
部署
到
Kubernetes
中的Tensorflow
模型
的响应延迟
、
如何改善
Kubernetes
中
部署
的
模型
的响应时间? 我从localhost Tensorlfow
模型
得到了0.18秒的响应时间,而Kubenetes集群上的相同
模型
给出了4秒的响应时间。
Kubernetes
Cluster-我创建了一个简单的
部署
和服务
到
主机
模型
。此
部署
只有一个活动节点。 任何帮助都是非常感谢的。谢谢
浏览 23
提问于2019-06-27
得票数 0
1
回答
如何利用顶点
AI
在GCP中建立自定义管道
、
、
、
、
我正在探索GCP中的顶点
AI
AutoML特性,它允许用户导入数据集、训练、
部署
和预测ML
模型
。我的用例是自己进行数据预处理(我对AutoML数据预处理不满意),并希望直接
将
这些数据输入
到
管道中,在管道中对
模型
进行训练和
部署
。另外,我希望
将
新数据提供给dataset。它应该负责整个管道(从数据预处理到
部署
最新
模型
)。我想知道如何处理这个问题?
浏览 6
提问于2022-04-20
得票数 2
1
回答
如何实现微服务的GitLab流分支
模型
?
、
、
最近,我一直在研究git流分支
模型
的替代方案,由于我已经在使用GitLab,我偶然发现了他们自己的分支
模型
GitLab流。目前,我正努力研究如何在微服务中正确地实现这一点。我们假设,我
将
所有服务
部署
到
同一个
kubernetes
集群中,每个
部署
都应该驻留在自己的名称空间中。如果我正确地理解了这个
模型
,就应该继续
将
主分支
部署
到
一个暂存环境中,并偶尔
将
标记提交
部署
<em
浏览 0
提问于2018-11-01
得票数 4
1
回答
运行
KUBERNETES
_PROVIDER=ubuntu ./Kubeup.sh时配置两个主节点
我正在尝试在Kube文件中设置带有两个主节点10.0.11.108和配置"
ai
ai
"的10.0.11.97 (Ubuntu)集群。当我跑的时候它在节点10.0.11.97中运行了两次
部署
脚本。变成错误: 复制文件和启动节点的sudo密码: cp:
无法
创建常规文件‘/opt/bin/ etcd’:文本文件繁忙的cp:
无法
创建常规文件‘
浏览 3
提问于2016-05-19
得票数 0
1
回答
在rasa-x上使用MITIE
部署
rasa
模型
时出错
、
我已经训练了一个
模型
,可以很好地使用"rasa shell“。然后我已经在
kubernetes
上
部署
了rasa-x,并尝试上传
模型
。
浏览 42
提问于2020-06-04
得票数 1
2
回答
引擎与顶点
AI
(
AI
平台统一)的
模型
预测
、
、
随着谷歌最近发布了整合了所有平台的MLOps,我想知道在GKE顶点
AI
(或
AI
平台统一版)上为一个经过自定义培训的PyTorch/Tensorflow
模型
提供服务有什么区别,因为刚刚进行了品牌重组,而
AI
平台已经提供了提供
模型
预测的能力。我已经在GKE上托管了我的ML
模型
,是否值得迁移到顶点
AI
? 注意:我还没有计划在云上进行培训和其他数据预处理。
浏览 5
提问于2021-06-11
得票数 2
回答已采纳
1
回答
将
Windows容器(用Docker创建)
部署
到
Azure容器服务中
、
我正在尝试完成一项关于如何在Azure域中/环境中正确地使用Windows容器的体系结构研究,在这个环境中,我必须将应用程序进行容器化,并将该容器
部署
到
Azure容器服务中 但是,我会收到这样一条消息: Win
浏览 3
提问于2017-08-09
得票数 0
回答已采纳
1
回答
H2O无人驾驶
AI
许可文件(license.sig)在哪里?
、
、
我正在通过这个实验室工作,在那里,一个H2O无人驾驶的
AI
模型
被训练,并
部署
到
雪花。我使用雪花合作伙伴连接建立了一个为期7天的H2O无人驾驶人工智能试验。一切进展顺利,直到最后一步,
将
模型
部署
到
雪花,在那里需要来自H20的一个H20文件。上面只写着: 但是,我找不到这个文件,也没有任何关于在哪里找到或下载它的说明。
浏览 2
提问于2021-11-10
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
TorchServe 详解:5 步将模型部署到生产环境
如何将PyTorch Lightning模型部署到生产中
如何将机器学习的模型部署到NET环境中?
用Python/Keras/Flask/Docker在Kubernetes上部署深度学习模型
简单几步,教你将机器学习模型成功部署到.Net环境中
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券